26.2. Трансляция журналов на резервные серверы #
- 26.2.1. Планирование
- 26.2.2. Работа резервного сервера
- 26.2.3. Подготовка главного сервера для работы с резервными
- 26.2.4. Настройка резервного сервера
- 26.2.5. Потоковая репликация
- 26.2.6. Слоты репликации
- 26.2.7. Каскадная репликация
- 26.2.8. Синхронная репликация
- 26.2.9. Непрерывное архивирование на резервном сервере
- 26.2.2. Работа резервного сервера
Постоянная архивация может использоваться для создания кластерной конфигурации высокой степени доступности (HA) с одним или несколькими резервными серверами, способными заменить ведущий сервер в случае выхода его из строя. Такую реализацию отказоустойчивости часто называют тёплый резерв или трансляция журналов.
Ведущий и резервный серверы работают совместно для обеспечения этой возможности, при этом они связаны опосредованно. Ведущий сервер работает в режиме постоянной архивации изменений, в то время как каждый резервный сервер работает в режиме постоянного приёма архивных изменений, получая файлы WAL от ведущего. Для обеспечения этой возможности не требуется вносить изменения в таблицы БД, поэтому администрировать данное решение репликации проще, чем ряд других. Так же такая конфигурация относительно слабо влияет на производительность ведущего сервера.
Непосредственную передачу записей WAL с одного сервера БД на другой обычно называют трансляцией журналов (или доставкой журналов). Postgres Pro реализует трансляцию журналов на уровне файлов, передавая записи WAL по одному файлу (сегменту WAL) единовременно. Файлы WAL (размером 16 МБ) можно легко и эффективно передать на любое расстояние, будь то соседний сервер, другая система в местной сети или сервер на другом краю света. Требуемая пропускная способность при таком подходе определяется скоростью записи транзакций на ведущем сервере. Трансляция журналов на уровне записей более фрагментарная операция, при которой изменения WAL передаются последовательно через сетевое соединение (см. Подраздел 26.2.5).
Следует отметить, что трансляция журналов асинхронна, то есть записи WAL доставляются после завершения транзакции. В результате образуется окно, когда возможна потеря данных при отказе сервера: будут утеряны ещё не переданные транзакции. Размер этого окна при трансляции файлов журналов может быть ограничен параметром archive_timeout
, который может принимать значение меньше нескольких секунд. Тем не менее подобные заниженные значения могут потребовать существенного увеличения пропускной способности, необходимой для трансляции файлов. При потоковой репликации (см. Подраздел 26.2.5) окно возможности потери данных гораздо меньше.
Скорость восстановления достаточно высока, обычно резервный сервер становится полностью доступным через мгновение после активации. В результате такое решение называется тёплым резервом, что обеспечивает отличную отказоустойчивость. Восстановление сервера из архивной копии базы и применение изменений обычно происходит существенно дольше. Поэтому такие действия обычно требуются при восстановлении после аварии, не для отказоустойчивости. Так же резервный сервер может обрабатывать читающие запросы. В этом случае он называется сервером горячего резерва. См. Раздел 26.4 для подробной информации.
26.2.1. Планирование #
Обычно разумно подбирать ведущий и резервный серверы так, чтобы они были максимально похожи, как минимум с точки зрения базы данных. Тогда в частности, пути, связанные с табличными пространствами, могут передаваться без изменений. Таким образом, как на ведущем, так и на резервных серверах должны быть одинаковые пути монтирования для табличных пространств при использовании этой возможности БД. Учитывайте, что если CREATE TABLESPACE выполнена на ведущем сервере, новая точка монтирования для этой команды уже должна существовать на резервных серверах до её выполнения. Аппаратная часть не должна быть в точности одинаковой, но опыт показывает, что сопровождать идентичные системы легче, чем две различные на протяжении жизненного цикла приложения и системы. В любом случае архитектура оборудования должна быть одинаковой — например, трансляция журналов с 32-битной на 64-битную систему не будет работать.
В общем случае трансляция журналов между серверами с различными основными версиями Postgres Pro невозможна. Политика главной группы разработки Postgres Pro состоит в том, чтобы не вносить изменения в дисковые форматы при обновлениях корректирующей версии, таким образом, ведущий и резервный серверы, имеющие разные корректирующие версии, могут работать успешно. Тем не менее формально такая возможность не поддерживается, поэтому рекомендуется поддерживать одинаковую версию ведущего и резервных серверов, насколько это возможно. При обновлении корректирующей версии безопаснее будет в первую очередь обновить резервные серверы — новая корректирующая версия с большей вероятностью прочитает файл WAL предыдущей корректирующей версии, чем наоборот.
26.2.2. Работа резервного сервера #
Сервер переходит в режим ожидания, если в каталоге данных при запуске сервера есть файл standby.signal
.
Сервер, работающий в режиме резервного, последовательно применяет файлы WAL, полученные от главного. Резервный сервер может читать файлы WAL из архива WAL (см. restore_command) или напрямую с главного сервера по соединению TCP (потоковая репликация). Резервный сервер также будет пытаться восстановить любой файл WAL, найденный в кластере резервного в каталоге pg_wal
. Это обычно происходит после перезапуска сервера, когда он применяет заново файлы WAL, полученные от главного сервера перед перезапуском. Но можно и вручную скопировать файлы в каталог pg_wal
, чтобы применить их в любой момент времени.
В момент запуска резервный сервер начинает восстанавливать все доступные файлы WAL, размещённые в архивном каталоге, указанном в команде restore_command
. По достижении конца доступных файлов WAL или при сбое команды restore_command
сервер пытается восстановить все файлы WAL, доступные в каталоге pg_wal
. Если это не удаётся и потоковая репликация настроена, резервный сервер пытается присоединиться к ведущему и начать закачивать поток WAL с последней подтверждённой записи, найденной в архиве или pg_wal
. Если это действие закончилось неудачей, или потоковая репликация не настроена, или соединение позднее разорвалось, резервный сервер возвращается к шагу 1 и пытается восстановить файлы из архива вновь. Цикл обращения за файлами WAL к архиву, pg_wal
, и через потоковую репликацию продолжается до остановки сервера или его повышения до ведущего.
Режим резерва завершается и сервер переключается в обычный рабочий режим при получении команды pg_ctl promote
или в результате вызова pg_promote()
. Перед переключением сервер восстановит все файлы WAL, непосредственно доступные из архива или pg_wal
, но пытаться подключиться к главному серверу он больше не будет.
26.2.3. Подготовка главного сервера для работы с резервными #
Настройка постоянного архивирования на ведущем сервере в архивный каталог, доступный с резервного, описана в Разделе 25.3. Расположение архива должно быть доступно с резервного сервера даже при отключении главного, то есть его следует разместить на резервном или другом доверенном, но не на главном сервере.
При использовании потоковой репликации следует настроить режим аутентификации на ведущем сервере, чтобы разрешить соединения с резервных. Для этого создать роль и обеспечить подходящую запись в файле pg_hba.conf
в разделе доступа к БД replication
. Так же следует убедиться, что для параметра max_wal_senders
задаётся достаточно большое значение в конфигурационном файле ведущего сервера. При использовании слотов для репликации также достаточно большое значение нужно задать для max_replication_slots
.
Создание базовой резервной копии, необходимой для запуска резервного сервера, описано в Подразделе 25.3.2.
26.2.4. Настройка резервного сервера #
Для запуска резервного сервера нужно восстановить резервную копию, снятую с ведущего (см. Подраздел 25.3.5). Затем нужно создать файл standby.signal
в каталоге данных кластера резервного сервера. Задайте в restore_command обычную команду копирования файлов из архива WAL. Если планируется несколько резервных серверов в целях отказоустойчивости, значением параметра recovery_target_timeline
должно быть latest
(значение по умолчанию), чтобы резервный сервер переходил на новую линию времени, образуемую при обработке отказа и переключении на другой сервер.
Примечание
Команда restore_command должна немедленно завершиться при отсутствии файла; сервер повторит эту команду при необходимости.
При необходимости потоковой репликации задайте в primary_conninfo параметры строки соединения для libpq, включая имя (или IP-адрес) сервера и всё, что требуется для подключения к ведущему серверу. Если ведущий требует пароль для аутентификации, пароль также должен быть указан в primary_conninfo.
Если резервный сервер настраивается в целях отказоустойчивости, на нём следует настроить архивацию WAL, соединения и аутентификацию, как на ведущем сервере, потому что резервный сервер станет ведущим после отработки отказа.
При использовании архива WAL его размер может быть уменьшен с помощью команды, задаваемой в archive_cleanup_command, если она будет удалять файлы, ставшие ненужными для резервного сервера. Утилита pg_archivecleanup разработана специально для использования в archive_cleanup_command
при типичной конфигурации с одним резервным сервером (см. pg_archivecleanup). Заметьте, что если архив используется в целях резервирования, необходимо сохранять все файлы, требующиеся для восстановления как минимум с последней базовой резервной копии, даже если они не нужны для резервного сервера.
Простой пример конфигурации:
primary_conninfo = 'host=192.168.1.50 port=5432 user=foo password=foopass options=''-c wal_sender_timeout=5000''' restore_command = 'cp /path/to/archive/%f %p' archive_cleanup_command = 'pg_archivecleanup /path/to/archive %r'
Можно поддерживать любое количество резервных серверов, но при применении потоковой репликации необходимо убедиться, что значение max_wal_senders
на ведущем достаточно большое, чтобы все они могли подключиться одновременно.
26.2.5. Потоковая репликация #
При потоковой репликации резервный сервер может работать с меньшей задержкой, чем при трансляции файлов. Резервный сервер подключается к ведущему, который передаёт поток записей WAL резервному в момент их добавления, не дожидаясь окончания заполнения файла WAL.
Потоковая репликация асинхронна по умолчанию (см. Подраздел 26.2.8), то есть имеется небольшая задержка между подтверждением транзакции на ведущем сервере и появлением этих изменений на резервном. Тем не менее эта задержка гораздо меньше, чем при трансляции файлов журналов, обычно в пределах одной секунды, если резервный сервер достаточно мощный и справляется с нагрузкой. При потоковой репликации настраивать archive_timeout
для уменьшения окна потенциальной потери данных не требуется.
При потоковой репликации без постоянной архивации на уровне файлов, сервер может избавиться от старых сегментов WAL до того, как резервный получит их. В этом случае резервный сервер потребует повторной инициализации из новой базовой резервной копии. Этого можно избежать, установив для wal_keep_size
достаточно большое значение, при котором сегменты WAL будут защищены от ранней очистки, либо настроив слот репликации для резервного сервера. Если с резервного сервера доступен архив WAL, этого не требуется, так как резервный может всегда обратиться к архиву для восполнения пропущенных сегментов.
Чтобы настроить потоковую репликацию, сначала настройте резервный сервер в режиме передачи журналов в виде файлов, как описано в Разделе 26.2. Затем переключите его в режим потоковой репликации, установив в primary_conninfo
строку подключения, указывающую на ведущий. Настройте listen_addresses и параметры аутентификации (см. pg_hba.conf
) на ведущем сервере таким образом, чтобы резервный смог подключиться к псевдобазе replication
ведущего (см. Подраздел 26.2.5.1).
В системах, поддерживающих параметр сокета keepalive, подходящие значения tcp_keepalives_idle, tcp_keepalives_interval и tcp_keepalives_count помогут ведущему вовремя заметить разрыв соединения.
Установите максимальное количество одновременных соединений с резервных серверов (см. описание max_wal_senders).
При запуске резервного сервера с правильно установленным primary_conninfo
резервный подключится к ведущему после воспроизведения всех файлов WAL, доступных из архива. При успешном установлении соединения можно увидеть walreceiver
на резервном сервере и соответствующий процесс walsender
на ведущем.
26.2.5.1. Аутентификация #
Право использования репликации очень важно ограничить так, чтобы только доверенные пользователи могли читать поток WAL, так как из него можно извлечь конфиденциальную информацию. Резервный сервер должен аутентифицироваться на главном от имени пользователя с правом REPLICATION
или от имени суперпользователя. Настоятельно рекомендуется создавать выделенного пользователя с правами REPLICATION
и LOGIN
специально для репликации. Хотя право REPLICATION
даёт очень широкие полномочия, оно не позволяет модифицировать данные в ведущей системе, тогда как с правом SUPERUSER
это можно делать.
Список аутентификации клиентов для репликации содержится в pg_hba.conf
в записях с установленным значением replication
в поле database
. Например, если резервный сервер запущен на компьютере с IP-адресом 192.168.1.100
и учётная запись для репликации foo
, администратор может добавить следующую строку в файл pg_hba.conf
ведущего:
# Разрешить пользователю "foo" с компьютера 192.168.1.100 подключаться к этому # серверу в качестве партнёра репликации, если был передан правильный пароль. # # TYPE DATABASE USER ADDRESS METHOD host replication foo 192.168.1.100/32 md5
Имя компьютера и номер порта для ведущего, имя подключающегося пользователя и пароль указываются в primary_conninfo. Пароль также может быть задан в файле ~/.pgpass
на резервном сервере (в поле database
нужно указать replication
). Например, если ведущий принимает подключения по IP-адресу 192.168.1.50
, через порт 5432
, пользователя для репликации foo
с паролем foopass
, администратор может добавить следующую строку в файл postgresql.conf
на резервном сервере:
# Резервный сервер подключается к ведущему, работающему на компьютере 192.168.1.50 # (порт 5432), от имени пользователя "foo" с паролем "foopass". primary_conninfo = 'host=192.168.1.50 port=5432 user=foo password=foopass'
26.2.5.2. Мониторинг #
Важным индикатором стабильности работы потоковой репликации является количество записей WAL, созданных на ведущем, но ещё не применённых на резервном сервере. Задержку можно подсчитать, сравнив текущую позиции записи WAL на ведущем с последней позицией WAL, полученной на резервном сервере. Эти позиции можно узнать, воспользовавшись функциями pg_current_wal_lsn
на ведущем и pg_last_wal_receive_lsn
на резервном, соответственно (за подробностями обратитесь к Таблице 9.95 и Таблице 9.96). Последняя полученная позиция WAL на резервном сервере также выводится в состоянии процесса-приёмника WAL, которое показывает команда ps
(подробнее об этом в Разделе 27.1).
Список процессов-передатчиков WAL можно получить через представление pg_stat_replication
. Большая разница между pg_current_wal_lsn
и полем sent_lsn
этого представления может указывать на то, что главный сервер работает с большой нагрузкой, тогда как разница между sent_lsn
и pg_last_wal_receive_lsn
на резервном может быть признаком задержек в сети или большой нагрузки резервного сервера.
На сервере горячего резерва состояние процесса-приёмника WAL можно получить через представление pg_stat_wal_receiver
. Большая разница между pg_last_wal_replay_lsn
и полем flushed_lsn
свидетельствует о том, что WAL поступает быстрее, чем удаётся его воспроизвести.
26.2.5.3. Исправление страницы данных с резервного сервера #
Если вы включили контрольные суммы, когда инициализировали базу данных, система ввода/вывода может выявить и сообщить о повреждении данных, которое могло быть вызвано ошибкой системы или сбоем диска. В кластерах, где настроена репликация между ведущим и резервными серверами, испорченная страница данных может быть исправлена автоматически с использованием потоковой репликации с резервного сервера.
Чтобы включить автоматическое исправление страниц, установите для переменной page_repair значение true
на ведущем сервере.
Типичная процедура исправления страницы выглядит так:
Как только система обнаруживает нарушение контрольной суммы при чтении страницы данных, Postgres Pro Enterprise блокирует обслуживающий процесс и начинает процесс исправления.
Отправитель WAL передаёт запрос приёмнику WAL на резервном сервере, чтобы прочитать ту же страницу данных.
Если на резервном сервере находится корректная копия страницы, обслуживающий процесс заменяет испорченную страницу копией, полученной от приёмника WAL, и разблокируется.
Если эта страница повреждена и на резервном, на нём происходит ошибка, и обслуживающий процесс выдаёт соответствующее сообщение об ошибке. В этом случае вы можете попытаться восстановить страницу из копии базы.
Примечание
Исправление страниц не может выполняться параллельно. Если ещё один обслуживающий процесс обнаружит, что испорчена другая страница, когда выполняется восстановление, он должен будет дождаться завершения восстановления.
26.2.6. Слоты репликации #
Слоты репликации автоматически обеспечивают механизм сохранения сегментов WAL, пока они не будут получены всеми резервными и ведущий сервер не будет удалять строки, находящиеся в статусе recovery conflict, даже при отключении резервного.
Вместо использования слотов репликации для предотвращения удаления старых сегментов WAL можно применять wal_keep_size или сохранять сегменты в архиве с помощью команды archive_command или archive_library. Однако в отличие от слотов репликации при использовании этих методов может храниться больше сегментов WAL, чем необходимо.
Подобным образом параметр hot_standby_feedback сам по себе, без использования слота репликации, позволяет защитить востребованные строки от удаления при очистке, но не защищает в тот промежуток времени, когда резервный сервер не подключён.
Внимание
Следует помнить, что использование слотов репликации может привести к хранению такого количества сегментов WAL на сервере, что они заполнят всё пространство, выделенное для pg_wal
. Чтобы ограничить размер файлов WAL, хранимых слотами репликации, используйте max_slot_wal_keep_size.
26.2.6.1. Запросы и действия слотов репликации #
Каждый слот репликации обладает именем, состоящим из строчных букв, цифр и символов подчёркивания.
Имеющиеся слоты репликации и их статус можно просмотреть в представлении pg_replication_slots
.
Слоты могут быть созданы и удалены как с помощью протокола потоковой репликации (см. Раздел 55.4), так и посредством функций SQL (см. Подраздел 9.28.6).
26.2.6.2. Пример конфигурации #
Для создания слота репликации выполните:
postgres=# SELECT * FROM pg_create_physical_replication_slot('node_a_slot'); slot_name | lsn -------------+----- node_a_slot | postgres=# SELECT slot_name, slot_type, active FROM pg_replication_slots; slot_name | slot_type | active -------------+-----------+-------- node_a_slot | physical | f (1 row)
Чтобы резервный сервер использовал этот слот, укажите его в параметре primary_slot_name
в конфигурации этого сервера. Например:
primary_conninfo = 'host=192.168.1.50 port=5432 user=foo password=foopass' primary_slot_name = 'node_a_slot'
26.2.7. Каскадная репликация #
Свойство каскадной репликации позволяет резервному серверу принимать соединения репликации и потоки WAL от других резервных, выступающих посредниками. Это может быть полезно для уменьшения числа непосредственных подключений к главному серверу, а также для уменьшения накладных расходов при передаче данных в интрасети.
Резервный сервер, выступающий как получатель и отправитель, называется каскадным резервным сервером. Резервные серверы, стоящие ближе к главному, называются серверами верхнего уровня, а более отдалённые — серверами нижнего уровня. Каскадная репликация не накладывает ограничений на количество или организацию последующих уровней, а каждый резервный соединяется только с одним сервером вышестоящего уровня, который в конце концов соединяется с единственным главным/ведущим сервером.
Резервный сервер каскадной репликации не только получает записи WAL от главного, но так же восстанавливает их из архива. Таким образом, даже если соединение с сервером более высокого уровня разорвётся, потоковая репликация для последующих уровней будет продолжаться до исчерпания доступных записей WAL.
Каскадная репликация в текущей реализации асинхронна. Параметры синхронной репликации (см. Подраздел 26.2.8) в настоящее время не оказывают влияние на каскадную репликацию.
Распространение обратной связи горячего резерва работает от нижестоящего уровня к вышестоящему уровню вне зависимости от способа организации связи.
Если вышестоящий резервный сервер будет преобразован в новый главный, нижестоящие серверы продолжат получать поток с нового главного при условии, что recovery_target_timeline
имеет значение latest
(по умолчанию).
Для использования каскадной репликации необходимо настроить резервный каскадный сервер на приём соединений репликации (то есть установить max_wal_senders и hot_standby, настроить host-based authentication). Так же может быть необходимо настроить на нижестоящем резервном значение primary_conninfo
на каскадный резервный сервер.
26.2.8. Синхронная репликация #
По умолчанию в Postgres Pro потоковая репликация асинхронна. Если ведущий сервер выходит из строя, некоторые транзакции, которые были подтверждены, но не переданы на резервный, могут быть потеряны. Объём потерянных данных пропорционален задержке репликации на момент отработки отказа.
Синхронная репликация предоставляет возможность гарантировать, что все изменения, внесённые в транзакции, были переданы одному или нескольким синхронным резервным серверам. Это повышает стандартный уровень надёжности, гарантируемый при фиксации транзакции. Этот уровень защиты соответствует второму уровню безопасности репликации из теории вычислительной техники, или групповой безопасности первого уровня (безопасности групповой и уровня 1), когда выбран режим synchronous_commit
remote_write
.
При синхронной репликации каждая фиксация пишущей транзакции ожидает подтверждения того, что запись фиксации помещена в журнал предзаписи на диске на обоих серверах: ведущем и резервном. При таком варианте потеря данных может произойти только в случае одновременного выхода из строя ведущего и резервного серверов. Это обеспечивает более высокий уровень надёжности, при условии продуманного подхода системного администратора к вопросам размещения и управления этими серверами. Ожидание подтверждения увеличивает уверенность в том, что данные не будут потеряны во время сбоя сервера, но при этом увеличивает время отклика для обработки транзакции. Минимальное время ожидания равно времени передачи данных от ведущего к резервному и обратно.
Транзакции только для чтения и откат транзакции не требуют ожидания для ответа с резервного сервера. Промежуточные подтверждения не ожидают ответа от резервного сервера, только подтверждение верхнего уровня. Долгие операции вида загрузки данных или построения индекса не ожидают финального подтверждения. Но все двухфазные подтверждения требуют ожидания, включая подготовку и непосредственно подтверждение.
Синхронным резервным сервером может быть резервный сервер при физической репликации или подписчик при логической репликации. Это также может быть другой потребитель потока логической или физической репликации, способный отправлять в ответ требуемые сообщения. Помимо встроенных систем логической и физической репликации, к таким потребителям относятся специальные программы, pg_receivewal
и pg_recvlogical
, а также некоторые сторонние системы репликации и внешние программы. Подробнее об организации синхронной репликации с их использованием можно узнать в соответствующей документации.
26.2.8.1. Базовая настройка #
При настроенной потоковой репликации установка синхронной репликации требует только дополнительной настройки: необходимо выставить synchronous_standby_names в непустое значение. Так же необходимо установить synchronous_commit
в значение on
, но так как это значение по умолчанию, обычно действий не требуется. (См. Подраздел 19.5.1 и Подраздел 19.6.2.) В такой конфигурации каждая транзакция будет ожидать подтверждение того, что на резервном сервере произошла запись транзакции в надёжное хранилище. Значение synchronous_commit
может быть выставлено для отдельного пользователя, может быть прописано в файле конфигурации, для конкретного пользователя или БД или динамически изменено приложением для управления степенью надёжности на уровне отдельных транзакций.
После сохранения записи о фиксации транзакции на диске ведущего сервера эта запись WAL передаётся резервному серверу. Резервный сервер отвечает подтверждающим сообщением после сохранения каждого нового блока данных WAL на диске, если только wal_receiver_status_interval
на нём не равен нулю. В случае, когда выбран режим synchronous_commit
remote_apply
, резервный сервер передаёт подтверждение после воспроизведения записи фиксации, когда транзакция становится видимой. Если резервный сервер выбран на роль синхронного резервного в соответствии со значением synchronous_standby_names
на ведущем, подтверждающие сообщения с этого сервера, в совокупности с сообщениями с других синхронных серверов, будут сигналом к завершению ожидания при фиксировании транзакций, требующих подтверждения сохранения записи фиксации. Эти параметры позволяют администратору определить, какие резервные серверы будут синхронными резервными. Заметьте, что настройка синхронной репликации в основном осуществляется на главном сервере. Перечисленные в списке резервных серверы должны быть подключены к нему непосредственно; он ничего не знает о резервных серверах, подключённых каскадно, через промежуточные серверы.
Если synchronous_commit
имеет значение remote_write
, то в случае подтверждения транзакции ответ от резервного сервера об успешном подтверждении будет передан, когда данные запишутся в операционной системе, но не когда данные будет реально сохранены на диске. При таком значении уровень надёжности снижается по сравнению со значением on
. Резервный сервер может потерять данные в случае падения операционной системы, но не в случае падения Postgres Pro. Тем не менее этот вариант полезен на практике, так как позволяет сократить время отклика для транзакции. Потеря данных может произойти только в случае одновременного сбоя ведущего и резервного, осложнённого повреждением БД на ведущем.
Если synchronous_commit
имеет значение remote_apply
, то для завершения фиксирования транзакции потребуется дождаться, чтобы текущие синхронные резервные серверы сообщили, что они воспроизвели транзакцию и её могут видеть запросы пользователей. В простых случаях это позволяет обеспечить обычный уровень согласованности и распределение нагрузки.
По умолчанию, когда вы добавляете синхронные резервные серверы или соединение с ними восстанавливается после сбоя, ведущий сервер блокируется, пока все резервные не достигнут его текущего состояния. Для минимизации времени простоя вы можете настроить на ведущем параметр synchronous_standby_gap. В этом параметре задаётся граничный разрыв в данных WAL между ведущим и синхронными резервными серверами, в килобайтах, который определяет порог для блокировки ведущего. Чтобы заданное в этом параметре положительное значение действовало, нужно задать указание MIN
, а также другие подходящие значения в параметре synchronous_standby_names
. Например:
synchronous_standby_names = 'FIRST 1 MIN 0 (s1)' synchronous_standby_gap = 1
В этом случае ведущий будет продолжать работать, пока резервный сервер воспроизводит данные WAL и разрыв превышает это значение. Как только разрыв сокращается до заданного, ведущий блокируется для завершения синхронизации. Чем меньше разрыв, тем меньше будет время блокировки.
Пользователи прекратят ожидание в случае запроса на быструю остановку сервера. В то время как при использовании асинхронной репликации сервер не будет полностью остановлен, пока все исходящие записи WAL не переместятся на текущий присоединённый резервный сервер.
26.2.8.2. Несколько синхронных резервных серверов #
Синхронная репликация поддерживает применение одного или нескольких синхронных резервных серверов; транзакции будут ждать, пока все резервные серверы, считающиеся синхронными, не подтвердят получение своих данных. Число синхронных резервных серверов, от которых транзакции должны ждать подтверждения, задаётся в параметре synchronous_standby_names
. В этом параметре также задаётся список имён резервных серверов и метод (FIRST
или ANY
) выбора синхронных из заданного списка.
С методом FIRST
производится синхронная репликация на основе приоритетов, когда транзакции фиксируются только после того, как их записи в WAL реплицируются на заданное число синхронных резервных серверов, выбираемых согласно приоритетам. Серверы, имена которых идут в начале списка, имеют больший приоритет и выбираются на роль синхронных. Другие резервные серверы, идущие в этом списке за ними, считаются потенциальными синхронными. Если один из текущих синхронных резервных серверов по какой-либо причине отключается, он будет немедленно заменён следующим по порядку резервным сервером.
Пример значения synchronous_standby_names
для нескольких синхронных резервных серверов, выбираемых по приоритетам:
synchronous_standby_names = 'FIRST 2 (s1, s2, s3)'
В данном примере, если работают четыре резервных сервера s1
, s2
, s3
и s4
, два сервера s1
и s2
будут выбраны на роль синхронных резервных, так как их имена идут в начале этого списка. Сервер s3
будет потенциальным резервным и возьмёт на себя роль синхронного резервного при отказе s1
или s2
. Сервер s4
будет асинхронным резервным, так как его имя в этом списке отсутствует.
С методом ANY
производится синхронная репликация на основе кворума, когда транзакции фиксируются только после того, как их записи в WAL реплицируются на как минимум заданное число синхронных серверов в списке.
Пример значения synchronous_standby_names
для нескольких синхронных резервных серверов, образующих кворум:
synchronous_standby_names = 'ANY 2 (s1, s2, s3)'
В данном примере, если работают четыре резервных сервера s1
, s2
, s3
и s4
, транзакции будут фиксироваться только после получения ответов как минимум от двух резервных серверов из s1
, s2
и s3
. Сервер s4
будет асинхронным резервным, так как его имя в этом списке отсутствует.
Методы FIRST
и ANY
могут использоваться вместе с указанием MIN
, определяющим минимальное количество синхронных резервных серверов, которые должны быть подключены к ведущему в любой момент времени. Вы можете добавить это указание, если некоторые из резервных серверов работают с перебоями или соединение с ведущим нестабильно, с тем, чтобы предотвратить блокировку ведущего сервера, когда какие-то резервные серверы временно окажутся недоступными.
Пример использования указания MIN
для нескольких синхронных серверов с учётом приоритетов:
synchronous_standby_names = 'FIRST 3 MIN 2 (s1, s2, s3, s4)'
С такой конфигурацией ведущий сервер продолжит работу, даже когда доступны всего два резервных сервера.
Для конфигурации с кворумом синтаксис такой же:
synchronous_standby_names = 'ANY 3 MIN 2 (s1, s2, s3, s4)'
После восстановления соединения поведение ведущего сервера зависит от параметра synchronous_standby_gap.
Состояние синхронности резервных серверов можно увидеть в представлении pg_stat_replication
.
26.2.8.3. Планирование производительности #
Организуя синхронную репликацию, обычно нужно обстоятельно обдумать конфигурацию и размещение резервных серверов, чтобы обеспечить приемлемую производительность приложений. Ожидание не потребляет системные ресурсы, но блокировки транзакций будут сохраняться до подтверждения передачи. Как следствие, непродуманное использование синхронной репликации приведёт к снижению производительности БД из-за увеличения времени отклика и числа конфликтов.
Postgres Pro позволяет разработчикам выбрать требуемый уровень надёжности, обеспечиваемый при репликации. Он может быть установлен для системы в целом, для отдельного пользователя или соединения или даже для отдельной транзакции.
Например, в рабочей нагрузке приложения 10% изменений могут относиться к важным данным клиентов, а 90% — к менее критичным данным, потеряв которые, бизнес вполне сможет выжить (например, это могут быть текущие разговоры пользователей между собой).
При настройке уровня синхронности репликации на уровне приложения (на ведущем) можно задать синхронную репликацию для большинства важных изменений без замедления общего рабочего ритма. Возможность настройки на уровне приложения является важным и практичным средством для получения выгод синхронной репликации при высоком быстродействии.
Следует иметь в виду, что пропускная способность сети должна быть больше скорости генерирования данных WAL.
26.2.8.4. Планирование отказоустойчивости #
В synchronous_standby_names
задаётся количество и имена синхронных резервных серверов, от которых будет ожидаться подтверждение при фиксировании транзакции, когда параметру synchronous_commit
присвоено значение on
, remote_apply
или remote_write
. Фиксирование транзакции в таком режиме может не завершиться никогда, если один из синхронных резервных серверов выйдет из строя.
Поэтому для высокой степени доступности лучше всего обеспечить наличие синхронных резервных серверов в должном количестве. Для этого можно перечислить несколько потенциальных резервных серверов в строке synchronous_standby_names
.
При синхронной репликации на основе приоритетов синхронными резервными серверами станут серверы, имена которых стоят в этом списке первыми. Следующие за ними серверы будут становиться синхронными резервными при отказе одного из текущих.
При синхронной репликации на основе кворума кандидатами на роль синхронных резервных будут все серверы в списке. И если один из них откажет, другие серверы будут продолжать исполнять эту роль.
Когда к ведущему серверу впервые присоединяется резервный, он ещё не будет полностью синхронизированным. Это называется состоянием навёрстывания
. Как только отставание резервного от ведущего сервера сократится до нуля в первый раз, система перейдет в состояние потоковой передачи
в реальном времени. Сразу после создания резервного сервера навёрстывание может быть длительным. В случае выключения резервного сервера длительность этого процесса увеличится соответственно продолжительности простоя. Резервный сервер может стать синхронным только по достижении состояния потоковой передачи
. Это состояние можно проследить в представлении pg_stat_replication
.
Если ведущий сервер перезапускается при наличии зафиксированных транзакций, ожидающих подтверждения, эти транзакции будут помечены как полностью зафиксированные после восстановления ведущего. При этом нельзя гарантировать, что все резервные серверы успели получить все текущие данные WAL к моменту падения ведущего. Таким образом, некоторые транзакции могут считаться незафиксированными на резервном сервере, даже если они считаются зафиксированными на ведущем. Гарантия, которую мы можем дать, состоит в том, что приложение не получит явного подтверждения успешной фиксации, пока не будет уверенности, что данные WAL получены всеми синхронными резервными серверами.
Если запустить синхронные резервные серверы в указанном количестве не удаётся, вам следует уменьшить число синхронных серверов, подтверждения которых требуются для завершения фиксации транзакций, в параметре synchronous_standby_names
(или вовсе отключить его) и перезагрузить файл конфигурации на ведущем сервере.
В случае если ведущий сервер стал недоступным для оставшихся резервных, следует переключиться на наиболее подходящий из имеющихся резервных серверов.
Если необходимо пересоздать резервный сервер при наличии ожидающих подтверждения транзакций, функции pg_backup_start()
и pg_backup_stop()
нужно вызывать в сеансе с параметром synchronous_commit
= off
, в противном случае эти запросы будут бесконечно ждать появления резервного сервера.
26.2.9. Непрерывное архивирование на резервном сервере #
Когда на резервном сервере применяется непрерывное архивирование WAL, возможны два различных сценария: архив WAL может быть общим для ведущего и резервного сервера, либо резервный сервер может иметь собственный архив WAL. Когда резервный работает с собственным архивом WAL, установите в archive_mode
значение always
, и он будет вызывать команду архивации для каждого сегмента WAL, который он получает при восстановлении из архива или потоковой репликации. В случае с общим архивом можно поступить аналогично, но archive_command
или archive_library
должна проверять, нет ли в архиве файла, идентичного архивируемому. Таким образом, команда archive_command
или библиотека archive_library
должна позаботиться о том, чтобы существующий файл не был заменён файлом с другим содержимым, а в случае попытки повторного архивирования должна сообщать об успешном выполнении. При этом все эти действия должны быть рассчитаны на условия гонки, возможные, если два сервера попытаются архивировать один и тот же файл одновременно.
Если в archive_mode
установлено значение on
, архивация в режиме восстановления или резерва не производится. В случае повышения резервного сервера, он начнёт архивацию после повышения, но в архив не попадут те файлы WAL или файлы истории линии времени, которые генерировал не он сам. Поэтому, чтобы в архиве оказался полный набор файлов WAL, необходимо обеспечить архивацию всех файлов WAL до того, как они попадут на резервный сервер. Это естественным образом происходит при трансляции файлов журналов, так как резервный сервер может восстановить только файлы, которые находятся в архиве, однако при потоковой репликации это не так. Когда сервер работает не в режиме резерва, различий между режимами on
и always
нет.