18.4. Управление ресурсами ядра
Postgres Pro иногда может исчерпывать некоторые ресурсы операционной системы до предела, особенно при запуске нескольких копий сервера в одной системе или при работе с очень большими базами. В этом разделе описываются ресурсы ядра, которые использует Postgres Pro, и подходы к решению проблем, связанных с ограниченностью этих ресурсов.
18.4.1. Разделяемая память и семафоры
Postgres Pro требует, чтобы операционная система предоставляла средства межпроцессного взаимодействия (IPC), в частности, разделяемую память и семафоры. Системы семейства Unix обычно предоставляют функции IPC в стиле «System V» или функции IPC в стиле «POSIX» или и те, и другие. В Windows эти механизмы реализованы по-другому, но здесь это не рассматривается.
Если эти механизмы полностью отсутствуют в системе, при запуске сервера обычно выдаётся ошибка «Illegal system call» (Неверный системный вызов). В этом случае единственный способ решить проблему — переконфигурировать ядро системы. Без них Postgres Pro просто не будет работать. Это довольно редкая ситуация, особенно с современными операционными системами.
По умолчанию Postgres Pro запрашивает очень небольшой объём разделяемой памяти System V и намного больший объём анонимной разделяемой памяти mmap
. Возможен также вариант использования одной большой области памяти System V (см. shared_memory_type). Помимо этого при запуске сервера создаётся значительное количество семафоров (в стиле System V или POSIX). В настоящее время семафоры POSIX используются в системах Linux и FreeBSD, а на других платформах используются семафоры System V.
Примечание
PostgreSQL до версии 9.3 использовал только разделяемую память System V, поэтому необходимый для запуска сервера объём разделяемой памяти System V был гораздо больше. Если вы используете более раннюю версию сервера, обратитесь к документации по вашей версии.
Функции IPC в стиле System V обычно сталкиваются с лимитами на уровне системы. Когда Postgres Pro превышает один из этих лимитов, сервер отказывается запускаться, но должен выдать полезное сообщение, говорящее об ошибке и о том, что с ней делать. (См. также Подраздел 18.3.1.) Соответствующие параметры ядра в разных системах называются аналогично (они перечислены в Таблице 18.1), но устанавливаются по-разному. Ниже предлагаются способы их изменения для некоторых систем.
Таблица 18.1. Параметры IPC в стиле System V
Name | Описание | Значения, необходимые для запуска одного экземпляра Postgres Pro |
---|---|---|
SHMMAX | Максимальный размер сегмента разделяемой памяти (в байтах) | как минимум 1 КБ, но значение по умолчанию обычно гораздо больше |
SHMMIN | Минимальный размер сегмента разделяемой памяти (в байтах) | 1 |
SHMALL | Общий объём доступной разделяемой памяти (в байтах или страницах) | если в байтах, то же, что и SHMMAX ; если в страницах, то ceil(SHMMAX/PAGE_SIZE) , плюс потребность других приложений |
SHMSEG | Максимальное число сегментов разделяемой памяти для процесса | требуется только 1 сегмент, но значение по умолчанию гораздо больше |
SHMMNI | Максимальное число сегментов разделяемой памяти для всей системы | как SHMSEG плюс потребность других приложений |
SEMMNI | Максимальное число идентификаторов семафоров (т. е., их наборов) | как минимум ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 5) / 16) плюс потребность других приложений |
SEMMNS | Максимальное число семафоров для всей системы | ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 5) / 16) * 17 плюс потребность других приложений |
SEMMSL | Максимальное число семафоров в наборе | не меньше 17 |
SEMMAP | Число записей в карте семафоров | см. текст |
SEMVMX | Максимальное значение семафора | не меньше 1000 (по умолчанию оно обычно равно 32767; без необходимости менять его не следует) |
Postgres Pro запрашивает небольшой блок разделяемой памяти System V (обычно 48 байт на 64-битной платформе) для каждой копии сервера. В большинстве современных операционных систем такой объём выделяется без проблем. Однако если запускать много копий сервера или явно настроить сервер для использования больших объёмов разделяемой памяти System V (см. shared_memory_type и dynamic_shared_memory_type), может понадобиться увеличить значение SHMALL
, задающее общий объём разделяемой памяти System V, доступный для всей системы. Заметьте, что SHMALL
во многих системах задаётся в страницах, а не в байтах.
Менее вероятны проблемы с минимальным размером сегментов разделяемой памяти (SHMMIN
), который для Postgres Pro не должен превышать примерно 32 байт (обычно это всего 1 байт). Максимальное число сегментов для всей системы (SHMMNI
) или для одного процесса (SHMSEG
) тоже обычно не влияет на работоспособность сервера, если только это число не равно нулю.
Когда Postgres Pro использует семафоры System V, он занимает по одному семафору на одно разрешённое подключение (max_connections), на разрешённый рабочий процесс автоочистки (autovacuum_max_workers), разрешённый процесс-передатчик WAL (max_wal_senders и фоновый процесс (max_worker_processes), в наборах по 16. В каждом таком наборе есть также 17-й семафор, содержащий «магическое число», позволяющий обнаруживать коллизии с наборами семафоров других приложений. Максимальное число семафоров в системе задаётся параметром SEMMNS
, который, следовательно, должен быть равен как минимум сумме max_connections
, autovacuum_max_workers
, max_wal_senders
и max_worker_processes
, плюс один дополнительный на каждые 16 семафоров подключений и рабочих процессов (см. формулу в Таблице 18.1). Параметр SEMMNI
определяет максимальное число наборов семафоров, которые могут существовать в системе в один момент времени. Таким образом, его значение должно быть не меньше чем ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 6) / 16)
. В качестве временного решения проблем, которые вызываются этими ограничениями, но обычно сопровождаются некорректными сообщениями функции semget
, например, «No space left on device» (На устройстве не осталось места) можно уменьшить число разрешённых соединений.
В некоторых случаях может потребоваться увеличить SEMMAP
как минимум до уровня SEMMNS
. Если в системе есть такой параметр (а во многих системах его нет), он определяет размер карты ресурсов семафоров, в которой выделяется запись для каждого непрерывного блока семафоров. Когда набор семафоров освобождается, эта запись либо добавляется к существующей соседней записи, либо регистрируется как новая запись в карте. Если карта переполняется, освобождаемые семафоры теряются (до перезагрузки). Таким образом, фрагментация пространства семафоров может со временем привести к уменьшению числа доступных семафоров.
Другие параметры, связанные с «аннулированием операций» с семафорами, например, SEMMNU
и SEMUME
, на работу Postgres Pro не влияют.
При использовании семафоров POSIX требуемое их количество не отличается от количества для System V, то есть по одному семафору на разрешённое подключение (max_connections), на разрешённый рабочий процесс автоочистки (autovacuum_max_workers), разрешённый процесс-передатчик WAL (max_wal_senders) и фоновый процесс (max_worker_processes). На платформах, где предпочитается этот вариант, отсутствует определённый лимит ядра на количество семафоров POSIX.
- AIX
Как минимум с версии 5.1, для таких параметров, как
SHMMAX
, никакая дополнительная настройка не должна требоваться, так как система, похоже, позволяет использовать всю память в качестве разделяемой. Подобная конфигурация требуется обычно и для других баз данных, например, для DB/2.Однако может понадобиться изменить глобальные параметры
ulimit
в/etc/security/limits
, так как стандартные жёсткие ограничения на размер (fsize
) и количество файлов (nofiles
) могут быть недостаточно большими.- FreeBSD
Значения параметров IPC по умолчанию можно изменить, используя возможности
sysctl
илиloader
. С помощьюsysctl
можно задать следующие параметры:#
sysctl kern.ipc.shmall=32768
#
sysctl kern.ipc.shmmax=134217728
Чтобы эти изменения сохранялись после перезагрузки, измените
/etc/sysctl.conf
.Эти параметры, связанные с семафорами,
sysctl
менять не позволяет, но их можно задать в/boot/loader.conf
:kern.ipc.semmni=256 kern.ipc.semmns=512
Чтобы изменённые таким образом параметры вступили в силу, требуется перезагрузить систему.
Возможно, вы захотите настроить ядро так, чтобы разделяемая память System V всегда находилась в ОЗУ и никогда не выгружалась в пространство подкачки. Это можно сделать, установив с помощью
sysctl
параметрkern.ipc.shm_use_phys
.Если вы используете «камеры» FreeBSD, включив в sysctl параметр
security.jail.sysvipc_allowed
, главные процессы postmaster, работающие в разных камерах, должны запускаться разными пользователями операционной системы. Это усиливает защиту, так как не позволяет обычным пользователям обращаться к разделяемой памяти или семафорам в разных камерах, и при этом способствует корректной работе кода очистки IPC в Postgres Pro. (Во FreeBSD 6.0 и более поздних версиях код очистки IPC не может корректно выявить процессы в других камерах, что не позволяет запускать процессы postmaster на одном порту в разных камерах.)До версии 4.0 система FreeBSD работала так же, как и старая OpenBSD (см. ниже).
- NetBSD
В NetBSD, начиная с версии 5.0, параметры IPC можно изменить, воспользовавшись командой
sysctl
, например:$
sysctl -w kern.ipc.semmni=100
Чтобы эти параметры сохранялись после перезагрузки, измените
/etc/sysctl.conf
.Обычно имеет смысл увеличить
kern.ipc.semmni
иkern.ipc.semmns
, так как их значения по умолчанию в NetBSD слишком малы.Возможно, вы захотите настроить ядро так, чтобы разделяемая память System V всегда находилась в ОЗУ и никогда не выгружалась в пространство подкачки. Это можно сделать, установив с помощью
sysctl
параметрkern.ipc.shm_use_phys
.До версии 5.0 система NetBSD работала так же, как старые OpenBSD (см. ниже), за исключением того, что параметры ядра в этой системе устанавливаются с указанием
options
, а неoption
.- OpenBSD
В OpenBSD, начиная с версии 3.3, параметры IPC можно изменить, воспользовавшись командой
sysctl
, например:$
sysctl kern.seminfo.semmni=100
Чтобы эти параметры сохранялись после перезагрузки, измените
/etc/sysctl.conf
.Обычно имеет смысл увеличить
kern.seminfo.semmni
иkern.seminfo.semmns
, так как их значения по умолчанию в OpenBSD слишком малы.В старых версиях OpenBSD вам потребуется пересобрать ядро, чтобы изменить параметры IPC. Также убедитесь, что в ядре включены параметры
SYSVSHM
иSYSVSEM
(по умолчанию они включены). Следующие строки показывают, как установить различные параметры в файле конфигурации ядра:option SYSVSHM option SHMMAXPGS=4096 option SHMSEG=256 option SYSVSEM option SEMMNI=256 option SEMMNS=512 option SEMMNU=256
- HP-UX
Значения по умолчанию обычно вполне удовлетворяют средним потребностям. В HP-UX 10 параметр
SEMMNS
по умолчанию имеет значение 128, что может быть недостаточно для больших баз данных.Параметры IPC можно установить в менеджере системного администрирования (System Administration Manager, SAM) в разделе → . Установив нужные параметры, выполните операцию (Создать ядро).
- Linux
По умолчанию максимальный размер сегмента равен 32 МБ, а максимальный общий размер составляет 2097152 страниц. Страница почти всегда содержит 4096 байт, за исключением нестандартных конфигураций ядра с поддержкой «огромных страниц» (точно узнать размер страницы можно, выполнив
getconf PAGE_SIZE
).Параметры размера разделяемой памяти можно изменить, воспользовавшись командой
sysctl
. Например, так можно выделить 16 ГБ для разделяемой памяти:$
sysctl -w kernel.shmmax=17179869184
$
sysctl -w kernel.shmall=4194304
Чтобы сохранить эти изменения после перезагрузки, их также можно записать в файл
/etc/sysctl.conf
(это настоятельно рекомендуется).В некоторых старых дистрибутивах может не оказаться программы
sysctl
, но те же изменения можно произвести, обратившись к файловой системе/proc
:$
echo 17179869184 >/proc/sys/kernel/shmmax
$
echo 4194304 >/proc/sys/kernel/shmall
Остальные параметры имеют вполне подходящие значения, так что их обычно менять не нужно.
- macOS
Для настройки разделяемой памяти в macOS рекомендуется создать файл
/etc/sysctl.conf
и записать в него присваивания переменных следующим образом:kern.sysv.shmmax=4194304 kern.sysv.shmmin=1 kern.sysv.shmmni=32 kern.sysv.shmseg=8 kern.sysv.shmall=1024
Заметьте, что в некоторых версиях macOS, все пять параметров разделяемой памяти должны быть установлены в
/etc/sysctl.conf
, иначе их значения будут проигнорированы.Имейте в виду, что последние версии macOS игнорируют попытки задать для
SHMMAX
значение, не кратное 4096.SHMALL
на этой платформе измеряется в страницах (по 4 КБ).В старых версиях macOS, чтобы изменения параметров разделяемой памяти вступили в силу, требовалась перезагрузка. Начиная с версии 10.5, все параметры, кроме
SHMMNI
можно изменить «на лету», воспользовавшись командой sysctl. Но тем не менее лучше задавать выбранные вами значения в/etc/sysctl.conf
, чтобы они сохранялись после перезагрузки.Файл
/etc/sysctl.conf
обрабатывается только начиная с macOS версии 10.3.9. Если вы используете предыдущий выпуск 10.3.x, необходимо отредактировать файл/etc/rc
и задать значения следующими командами:sysctl -w kern.sysv.shmmax sysctl -w kern.sysv.shmmin sysctl -w kern.sysv.shmmni sysctl -w kern.sysv.shmseg sysctl -w kern.sysv.shmall
Заметьте, что
/etc/rc
обычно заменяется при обновлении системы macOS, так что следует ожидать, что вам придётся повторять эти изменения после каждого обновления.В macOS 10.2 и более ранних версиях вместо этого надо записать эти команды в файле
/System/Library/StartupItems/SystemTuning/SystemTuning
.- Solaris версии с 2.6 по 2.9 (Solaris 6 .. Solaris 9)
Соответствующие параметры можно изменить в
/etc/system
, например так:set shmsys:shminfo_shmmax=0x2000000 set shmsys:shminfo_shmmin=1 set shmsys:shminfo_shmmni=256 set shmsys:shminfo_shmseg=256 set semsys:seminfo_semmap=256 set semsys:seminfo_semmni=512 set semsys:seminfo_semmns=512 set semsys:seminfo_semmsl=32
Чтобы изменения вступили в силу, потребуется перегрузить систему. Информацию о разделяемой памяти в более старых версиях Solaris можно найти по ссылке http://sunsite.uakom.sk/sunworldonline/swol-09-1997/swol-09-insidesolaris.html.
- Solaris 2.10 (Solaris 10) и более поздние версии
OpenSolaris В Solaris 10 и новее, а также в OpenSolaris, стандартные параметры разделяемой памяти и семафоров достаточно хороши для большинства применений Postgres Pro. По умолчанию Solaris теперь устанавливает в
SHMMAX
четверть объёма ОЗУ. Чтобы изменить этот параметр, воспользуйтесь возможностью задать параметр проекта, связанного с пользователемpostgres
. Например, выполните от имениroot
такую команду:projadd -c "Postgres Pro DB User" -K "project.max-shm-memory=(privileged,8GB,deny)" -U postgres -G postgres user.postgres
Эта команда создаёт проект
user.postgres
и устанавливает максимальный объём разделяемой памяти для пользователяpostgres
равным 8 ГБ. Это изменение вступает в силу при следующем входе этого пользователя или при перезапуске Postgres Pro (не перезагрузке конфигурации). При этом подразумевается, что Postgres Pro выполняется пользователемpostgres
в группеpostgres
. Перезагружать систему после этой команды не нужно.Для серверов баз данных, рассчитанных на большое количество подключений, рекомендуется также изменить следующие параметры:
project.max-shm-ids=(priv,32768,deny) project.max-sem-ids=(priv,4096,deny) project.max-msg-ids=(priv,4096,deny)
Кроме того, если Postgres Pro у вас выполняется внутри зоны, может понадобиться также увеличить лимиты на использование ресурсов зоны. Получить дополнительную информацию о
проектах
и командеprctl
можно в Руководстве системного администратора (System Administrator's Guide), «Главе 2: Проекты и задачи» (Chapter2: Projects and Tasks).
18.4.2. RemoveIPC в systemd
Если используется systemd, необходимо позаботиться о том, чтобы ресурсы IPC (включая разделяемую память) не освобождались преждевременно операционной системой. Это особенно актуально при сборке и установке Postgres Pro из исходного кода. Пользователей дистрибутивных пакетов Postgres Pro это касается в меньшей степени, так как пользователь postgres
обычно создаётся как системный пользователь.
Параметр RemoveIPC
в logind.conf
определяет, должны ли объекты IPC удаляться при полном выходе пользователя из системы. На системных пользователей это не распространяется. Этот параметр по умолчанию включён в стандартной сборке systemd, но в некоторых дистрибутивах операционных систем он по умолчанию отключён.
Обычно негативный эффект включения этого параметра проявляется в том, что объекты разделяемой памяти, используемые для параллельного выполнения запросов, удаляются без видимых причин, что приводит к появлению ошибок и предупреждений при попытке открыть и удалить их, например:
WARNING: could not remove shared memory segment "/PostgreSQL.1450751626": No such file or directory
(ПРЕДУПРЕЖДЕНИЕ: ошибка при удалении сегмента разделяемой памяти "/PostgreSQL.1450751626": Нет такого файла или каталога) Различные типы объектов IPC (разделяемая память/семафоры, System V/POSIX) обрабатываются в systemd несколько по-разному, поэтому могут наблюдаться ситуации, когда некоторые ресурсы IPC не удаляются так, как другие. Однако полагаться на эти тонкие различия не рекомендуется.
Событие «выхода пользователя из системы» может произойти при выполнении задачи обслуживания или если администратор войдёт под именем postgres
, а затем выйдет, либо случится что-то подобное, так что предотвратить это довольно сложно.
Какой пользователь является «системным», определяется во время компиляции systemd, исходя из значения SYS_UID_MAX
в /etc/login.defs
.
Скрипт упаковывания и развёртывания сервера должен предусмотрительно создавать пользователя postgres
как системного пользователя, используя команды useradd -r
, adduser --system
или равнозначные.
Если же учётная запись пользователя была создана некорректно и изменить её невозможно, рекомендуется задать
RemoveIPC=no
в /etc/systemd/logind.conf
или другом подходящем файле конфигурации.
Внимание
Необходимо предпринять минимум одно из этих двух действий, иначе сервер Postgres Pro будет очень нестабильным.
18.4.3. Ограничения ресурсов
В Unix-подобных операционных системах существуют различные типы ограничений ресурсов, которые могут влиять на работу сервера Postgres Pro. Особенно важны ограничения на число процессов для пользователя, число открытых файлов и объём памяти для каждого процесса. Каждое из этих ограничений имеет «жёсткий» и «мягкий» предел. Мягкий предел действительно ограничивает использование ресурса, но пользователь может увеличить его значение до жёсткого предела. Изменить жёсткий предел может только пользователь root. За изменение этих параметров отвечает системный вызов setrlimit
. Управлять этими ресурсами в командной строке позволяет встроенная команда ulimit
(в оболочках Bourne) и limit
(csh). В системах семейства BSD различными ограничениями ресурсов, устанавливаемыми при входе пользователя, управляет файл /etc/login.conf
. За подробностями обратитесь к документации операционной системы. Для Postgres Pro интерес представляют параметры maxproc
, openfiles
и datasize
. Они могут задаваться, например так:
default:\ ... :datasize-cur=256M:\ :maxproc-cur=256:\ :openfiles-cur=256:\ ...
(Здесь -cur
обозначает мягкий предел. Чтобы задать жёсткий предел, нужно заменить это окончание на -max
.)
Ядро также может устанавливать общесистемные ограничения на использование некоторых ресурсов.
В Linux максимальное число открытых файлов, которое поддерживает ядро, определяется параметром ядра
fs.file-max
. Изменить этот предел можно, воспользовавшись командойsysctl -w fs.file-max=
. Чтобы эти изменения сохранялись после перезагрузки, следует добавить присваивание в файлN
/etc/sysctl.conf
. Максимальное число файлов для одного процесса задаётся при компиляции ядра; за дополнительными сведения обратитесь к/usr/src/linux/Documentation/proc.txt
.
Сервер Postgres Pro использует для обслуживания каждого подключения отдельный процесс, так что возможное число процессов должно быть не меньше числа разрешённых соединений плюс число процессов, требуемых для остальной системы. Это обычно не проблема, но когда в одной системе работает множество серверов, предел может быть достигнут.
В качестве максимального числа открытых файлов по умолчанию обычно выбираются «социально-ориентированные» значения, позволяющие использовать одну систему нескольким пользователям так, чтобы ни один из них не потреблял слишком много системных ресурсов. Если вы запускаете в системе несколько серверов, это должно вполне устраивать, но на выделенных машинах может возникнуть желание увеличить этот предел.
С другой стороны, некоторые системы позволяют отдельным процессам открывать очень много файлов и если это делают сразу несколько процессов, они могут легко исчерпать общесистемный предел. Если вы столкнётесь с такой ситуацией, но не захотите менять общесистемное ограничение, вы можете ограничить использование открытых файлов сервером Postgres Pro, установив параметр конфигурации max_files_per_process.
Ещё одно ограничение в ядре, с которым можно столкнуться, когда устанавливается большое количество клиентских подключений, — максимальная длина очереди подключений к сокету. Если количество запросов на подключение за короткий промежуток времени превышает этот максимум, некоторые из них будут отклонены до того, как главный процесс сможет их обработать, при этом клиенты получат неинформативное сообщение об ошибке подключения типа «Resource temporarily unavailable» (Ресурс временно недоступен) или «Connection refused» (Не удалось подключиться). Предел длины очереди на многих платформах по умолчанию составляет 128. Чтобы увеличить его, настройте соответствующий параметр ядра через sysctl и перезапустите главный процесс. Этот параметр называется net.core.somaxconn
в Linux, kern.ipc.soacceptqueue
в последних версиях FreeBSD и kern.ipc.somaxconn
в macOS и на других платформах BSD.
18.4.4. Чрезмерное выделение памяти в Linux
В Linux 2.4 и новее механизм виртуальной памяти по умолчанию работает не оптимально для Postgres Pro. Вследствие того, что ядро выделяет память в чрезмерном объёме, оно может уничтожить главный управляющий процесс Postgres Pro (postmaster), если при выделении памяти процессу Postgres Pro или другому процессу виртуальная память будет исчерпана.
Когда это происходит, вы можете получить примерно такое сообщение ядра (где именно искать это сообщение, можно узнать в документации вашей системы):
Out of Memory: Killed process 12345 (postgres).
Это сообщение говорит о том, что процесс postgres
был уничтожен из-за нехватки памяти. Хотя существующие подключения к базе данных будут работать по-прежнему, новые подключения приниматься не будут. Чтобы восстановить работу сервера, Postgres Pro придётся перезапустить.
Один из способов обойти эту проблему — запускать Postgres Pro на компьютере, где никакие другие процессы не займут всю память. Если физической памяти недостаточно, решить проблему также можно, увеличив объём пространства подкачки, так как уничтожение процессов при нехватке памяти происходит только когда заканчивается и физическая память, и место в пространстве подкачки.
Если памяти не хватает по вине самого Postgres Pro, эту проблему можно решить, изменив конфигурацию сервера. В некоторых случаях может помочь уменьшение конфигурационных параметров, связанных с памятью, а именно shared_buffers
и work_mem
. В других случаях проблема может возникать, потому что разрешено слишком много подключений к самому серверу баз данных. Чаще всего в такой ситуации стоит уменьшить число подключений max_connections
и организовать внешний пул соединений.
В Linux 2.6 и новее «чрезмерное выделение» памяти можно предотвратить, изменив поведение ядра. Хотя при этом OOM killer (уничтожение процессов при нехватке памяти) всё равно может вызываться, вероятность такого уничтожения значительно уменьшается, а значит поведение системы становится более стабильным. Для этого нужно включить режим строгого выделения памяти, воспользовавшись sysctl
:
sysctl -w vm.overcommit_memory=2
либо поместив соответствующую запись в /etc/sysctl.conf
. Возможно, вы также захотите изменить связанный параметр vm.overcommit_ratio
. За подробностями обратитесь к документации ядра https://www.kernel.org/doc/Documentation/vm/overcommit-accounting.
Другой подход, который можно применить (возможно, вместе с изменением vm.overcommit_memory
), заключается в исключении процесса postmaster из числа возможных жертв при нехватке памяти. Для этого нужно задать для свойства поправка очков OOM этого процесса значение -1000
. Проще всего это можно сделать, выполнив
echo -1000 > /proc/self/oom_score_adj
в скрипте запуска управляющего процесса непосредственно перед тем, как запускать postmaster. Заметьте, что делать это надо под именем root, иначе ничего не изменится, поэтому проще всего вставить эту команду в стартовый скрипт, принадлежащий пользователю root. Если вы делаете это, вы также должны установить в данном скрипте эти переменные окружения перед запуском главного процесса:
export PG_OOM_ADJUST_FILE=/proc/self/oom_score_adj export PG_OOM_ADJUST_VALUE=0
С такими параметрами дочерние процессы главного будут запускаться с обычной, нулевой поправкой очков OOM, так что при необходимости механизм OOM сможет уничтожать их. Вы можете задать и другое значение для PG_OOM_ADJUST_VALUE
, если хотите, чтобы дочерние процессы исполнялись с другой поправкой OOM. (PG_OOM_ADJUST_VALUE
также можно опустить, в этом случае подразумевается нулевое значение.) Если вы не установите PG_OOM_ADJUST_FILE
, дочерние процессы будут работать с той же поправкой очков OOM, которая задана для главного процесса, что неразумно, так как всё это делается как раз для того, чтобы главный процесс оказался на особом положении.
В старых ядрах Linux /proc/self/oom_score_adj
отсутствует, но та же функциональность может быть доступна через /proc/self/oom_adj
. Эта переменная процесса работает так же, только значение, исключающее уничтожение процесса, равно -17
, а не -1000
.
Примечание
Некоторые дистрибутивы с ядрами Linux 2.4 содержат предварительную реализацию механизма sysctl
overcommit, появившегося официально в 2.6. Однако если установить для vm.overcommit_memory
значение 2 в ядре 2.4, ситуация не улучшится, а только ухудшится. Прежде чем модифицировать этот параметр в ядре 2.4, рекомендуется проанализировать исходный код вашего ядра (см. функцию vm_enough_memory
в файле mm/mmap.c
) и убедиться, что ядро поддерживает именно нужный вам режим. Наличие файла документации overcommit-accounting
не следует считать признаком того, что он действительно поддерживается. В случае сомнений, обратитесь к эксперту по ядру или поставщику вашей системы.
18.4.5. Огромные страницы в Linux
Использование огромных страниц (huge pages) снижает накладные расходы при работе с большими непрерывными блоками памяти, что характерно для Postgres Pro, особенно при большом объёме shared_buffers. Чтобы такие страницы можно было задействовать в Postgres Pro, ядро должно быть собрано с параметрами CONFIG_HUGETLBFS=y
и CONFIG_HUGETLB_PAGE=y
. Также вам понадобится настроить параметр ядра vm.nr_hugepages
. Чтобы оценить требуемое количество огромных страниц, запустите Postgres Pro без поддержки огромных страниц и определите размер сегмента анонимной разделяемой памяти процесса postmaster, а также узнайте размер огромной страницы, воспользовавшись файловой системой /proc
. Например, вы можете получить:
$head -1 $PGDATA/postmaster.pid
4170 $pmap 4170 | awk '/rw-s/ && /zero/ {print $2}'
6490428K $grep ^Hugepagesize /proc/meminfo
Hugepagesize: 2048 kB
В данном случае 6490428
/ 2048
даёт примерно 3169.154
, так что нам потребуется минимум 3170
огромных страниц, и мы можем задать это значение так:
$ sysctl -w vm.nr_hugepages=3170
Большее значение стоит указать, если огромные страницы будут использоваться и другими программами в этой системе. Не забудьте добавить этот параметр в /etc/sysctl.conf
, чтобы он действовал и после перезагрузки.
Иногда ядро не может выделить запрошенное количество огромных страниц сразу, поэтому может потребоваться повторить эту команду или перезагрузить систему. (Немедленно после перезагрузки должен быть свободен больший объём памяти для преобразования в огромные страницы.) Чтобы проверить текущую ситуацию с размещением огромных страниц, выполните:
$ grep Huge /proc/meminfo
Также может потребоваться дать пользователю операционной системы, запускающему сервер БД, право использовать огромные страницы, установив его группу в vm.hugetlb_shm_group
с помощью sysctl, и/или разрешить блокировать память, выполнив ulimit -l
.
По умолчанию Postgres Pro использует огромные страницы, когда считает это возможным, а в противном случае переходит к обычным страницам. Чтобы задействовать огромные страницы принудительно, можно установить для huge_pages значение on
в postgresql.conf
. Заметьте, что с таким значением Postgres Pro не сможет запуститься, если не получит достаточного количества огромных страниц.
Более подробно о механизме огромных страниц в Linux можно узнать в документации ядра: https://www.kernel.org/doc/Documentation/vm/hugetlbpage.txt.
18.4.6. Приоритизация ресурсов
В Postgres Pro Enterprise реализован экспериментальный механизм приоритизации ресурсов.
В системах с ограниченными ресурсами и большой нагрузкой может возникнуть необходимость приоритизировать выполнение транзакций, чтобы одни транзакции выполнялись быстрее других. Например, сделать так, чтобы запросы пользователей выполнялись как можно быстрее, даже если при этом будут замедлены менее срочные задачи, например запросы OLAP. Postgres Pro Enterprise даёт возможность настраивать политики приоритизации ресурсов, позволяющие замедлять отдельные сеансы в зависимости от количества потребляемых ими ресурсов процессора и ввода/вывода, по сравнению с другими сеансами.
По умолчанию приоритизация ресурсов отключена, так что все обслуживающие процессы имеют неограниченный доступ ко всем имеющимся ресурсам. Чтобы ограничить объём ресурсов, которые может потреблять каждый сеанс в течение определённого интервала времени, вы можете назначить вес каждому сеансу. В зависимости от текущего потребления ресурсов, Postgres Pro Enterprise может приостанавливать процессы с меньшим весом время от времени, чтобы более приоритетные сеансы получали больше ресурсов.
Чтобы включить приоритизацию ресурсов в кластере баз данных:
Настройте временной интервал для сбора статистики использования ресурсов всеми активными обслуживающими процессами, установив параметр usage_tracking_interval в файле
postgresql.conf
, и перезагрузите конфигурацию сервера.Когда параметр usage_tracking_interval имеет положительное значение, Postgres Pro Enterprise начинает собирать статистику использования ресурсов с заданным интервалом.
Подсказка
Не следует устанавливать для usage_tracking_interval маленькие значения, так как частый сбор статистики может сказаться на производительности.
В зависимости от того, использование каких ресурсов вы хотите контролировать, измените соответствующие параметры для сеансов с особым приоритетом:
session_cpu_weight — использование процессора.
session_ioread_weight — объём читаемых данных.
session_iowrite_weight — объём записываемых данных.
Эти параметры могут принимать следующие значения веса:
1
,2
,4
и8
. Чем больше значение, тем больше ресурсов может использовать сеанс. Сеансы с равным весом имеют одинаковые приоритеты при использовании ресурсов, поэтому если вы назначите всем сеансам какое угодно, но одно и то же значение, это никак не повлияет на производительность. По умолчанию все сеансы имеют вес4
для всех типов ресурсов.Все возможные варианты изменения конфигурации для конкретного сеанса описаны в Разделе 19.1.
Когда одному или нескольким сеансам назначен вес, Postgres Pro Enterprise применяет политику приоритизации, зависящую от назначенных весов и статистики использования, которая была собрана в предыдущем интервале (определённом параметром usage_tracking_interval). Таким образом активность сеансов при необходимости регулируется на каждом интервале.
Примечание
Несмотря на то, что веса для каждого ресурса настраиваются отдельно, приоритизация сеанса по какому-то одному ресурсу отражается на общей производительности сеанса и может косвенно повлиять на использование других ресурсов.
18.4. Managing Kernel Resources
Postgres Pro can sometimes exhaust various operating system resource limits, especially when multiple copies of the server are running on the same system, or in very large installations. This section explains the kernel resources used by Postgres Pro and the steps you can take to resolve problems related to kernel resource consumption.
18.4.1. Shared Memory and Semaphores
Postgres Pro requires the operating system to provide inter-process communication (IPC) features, specifically shared memory and semaphores. Unix-derived systems typically provide “System V” IPC, “POSIX” IPC, or both. Windows has its own implementation of these features and is not discussed here.
The complete lack of these facilities is usually manifested by an “Illegal system call” error upon server start. In that case there is no alternative but to reconfigure your kernel. Postgres Pro won't work without them. This situation is rare, however, among modern operating systems.
By default, Postgres Pro allocates a very small amount of System V shared memory, as well as a much larger amount of anonymous mmap
shared memory. Alternatively, a single large System V shared memory region can be used (see shared_memory_type). In addition a significant number of semaphores, which can be either System V or POSIX style, are created at server startup. Currently, POSIX semaphores are used on Linux and FreeBSD systems while other platforms use System V semaphores.
Note
Prior to PostgreSQL 9.3, only System V shared memory was used, so the amount of System V shared memory required to start the server was much larger. If you are running an older version of the server, please consult the documentation for your server version.
System V IPC features are typically constrained by system-wide allocation limits. When Postgres Pro exceeds one of these limits, the server will refuse to start and should leave an instructive error message describing the problem and what to do about it. (See also Section 18.3.1.) The relevant kernel parameters are named consistently across different systems; Table 18.1 gives an overview. The methods to set them, however, vary. Suggestions for some platforms are given below.
Table 18.1. System V IPC Parameters
Name | Description | Values needed to run one Postgres Pro instance |
---|---|---|
SHMMAX | Maximum size of shared memory segment (bytes) | at least 1kB, but the default is usually much higher |
SHMMIN | Minimum size of shared memory segment (bytes) | 1 |
SHMALL | Total amount of shared memory available (bytes or pages) | same as SHMMAX if bytes, or ceil(SHMMAX/PAGE_SIZE) if pages, plus room for other applications |
SHMSEG | Maximum number of shared memory segments per process | only 1 segment is needed, but the default is much higher |
SHMMNI | Maximum number of shared memory segments system-wide | like SHMSEG plus room for other applications |
SEMMNI | Maximum number of semaphore identifiers (i.e., sets) | at least ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 5) / 16) plus room for other applications |
SEMMNS | Maximum number of semaphores system-wide | ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 5) / 16) * 17 plus room for other applications |
SEMMSL | Maximum number of semaphores per set | at least 17 |
SEMMAP | Number of entries in semaphore map | see text |
SEMVMX | Maximum value of semaphore | at least 1000 (The default is often 32767; do not change unless necessary) |
Postgres Pro requires a few bytes of System V shared memory (typically 48 bytes, on 64-bit platforms) for each copy of the server. On most modern operating systems, this amount can easily be allocated. However, if you are running many copies of the server or you explicitly configure the server to use large amounts of System V shared memory (see shared_memory_type and dynamic_shared_memory_type), it may be necessary to increase SHMALL
, which is the total amount of System V shared memory system-wide. Note that SHMALL
is measured in pages rather than bytes on many systems.
Less likely to cause problems is the minimum size for shared memory segments (SHMMIN
), which should be at most approximately 32 bytes for Postgres Pro (it is usually just 1). The maximum number of segments system-wide (SHMMNI
) or per-process (SHMSEG
) are unlikely to cause a problem unless your system has them set to zero.
When using System V semaphores, Postgres Pro uses one semaphore per allowed connection (max_connections), allowed autovacuum worker process (autovacuum_max_workers), allowed WAL sender process (max_wal_senders), and allowed background process (max_worker_processes), in sets of 16. Each such set will also contain a 17th semaphore which contains a “magic number”, to detect collision with semaphore sets used by other applications. The maximum number of semaphores in the system is set by SEMMNS
, which consequently must be at least as high as max_connections
plus autovacuum_max_workers
plus max_wal_senders
, plus max_worker_processes
, plus one extra for each 16 allowed connections plus workers (see the formula in Table 18.1). The parameter SEMMNI
determines the limit on the number of semaphore sets that can exist on the system at one time. Hence this parameter must be at least ceil((max_connections + autovacuum_max_workers + max_wal_senders + max_worker_processes + 5) / 16)
. Lowering the number of allowed connections is a temporary workaround for failures, which are usually confusingly worded “No space left on device”, from the function semget
.
In some cases it might also be necessary to increase SEMMAP
to be at least on the order of SEMMNS
. If the system has this parameter (many do not), it defines the size of the semaphore resource map, in which each contiguous block of available semaphores needs an entry. When a semaphore set is freed it is either added to an existing entry that is adjacent to the freed block or it is registered under a new map entry. If the map is full, the freed semaphores get lost (until reboot). Fragmentation of the semaphore space could over time lead to fewer available semaphores than there should be.
Various other settings related to “semaphore undo”, such as SEMMNU
and SEMUME
, do not affect Postgres Pro.
When using POSIX semaphores, the number of semaphores needed is the same as for System V, that is one semaphore per allowed connection (max_connections), allowed autovacuum worker process (autovacuum_max_workers), allowed WAL sender process (max_wal_senders), and allowed background process (max_worker_processes). On the platforms where this option is preferred, there is no specific kernel limit on the number of POSIX semaphores.
- AIX
At least as of version 5.1, it should not be necessary to do any special configuration for such parameters as
SHMMAX
, as it appears this is configured to allow all memory to be used as shared memory. That is the sort of configuration commonly used for other databases such as DB/2.It might, however, be necessary to modify the global
ulimit
information in/etc/security/limits
, as the default hard limits for file sizes (fsize
) and numbers of files (nofiles
) might be too low.- FreeBSD
The default IPC settings can be changed using the
sysctl
orloader
interfaces. The following parameters can be set usingsysctl
:#
sysctl kern.ipc.shmall=32768
#
sysctl kern.ipc.shmmax=134217728
To make these settings persist over reboots, modify
/etc/sysctl.conf
.These semaphore-related settings are read-only as far as
sysctl
is concerned, but can be set in/boot/loader.conf
:kern.ipc.semmni=256 kern.ipc.semmns=512
After modifying that file, a reboot is required for the new settings to take effect.
You might also want to configure your kernel to lock System V shared memory into RAM and prevent it from being paged out to swap. This can be accomplished using the
sysctl
settingkern.ipc.shm_use_phys
.If running in FreeBSD jails by enabling sysctl's
security.jail.sysvipc_allowed
, postmasters running in different jails should be run by different operating system users. This improves security because it prevents non-root users from interfering with shared memory or semaphores in different jails, and it allows the Postgres Pro IPC cleanup code to function properly. (In FreeBSD 6.0 and later the IPC cleanup code does not properly detect processes in other jails, preventing the running of postmasters on the same port in different jails.)FreeBSD versions before 4.0 work like old OpenBSD (see below).
- NetBSD
In NetBSD 5.0 and later, IPC parameters can be adjusted using
sysctl
, for example:#
sysctl -w kern.ipc.semmni=100
To make these settings persist over reboots, modify
/etc/sysctl.conf
.You will usually want to increase
kern.ipc.semmni
andkern.ipc.semmns
, as NetBSD's default settings for these are uncomfortably small.You might also want to configure your kernel to lock System V shared memory into RAM and prevent it from being paged out to swap. This can be accomplished using the
sysctl
settingkern.ipc.shm_use_phys
.NetBSD versions before 5.0 work like old OpenBSD (see below), except that kernel parameters should be set with the keyword
options
notoption
.- OpenBSD
In OpenBSD 3.3 and later, IPC parameters can be adjusted using
sysctl
, for example:#
sysctl kern.seminfo.semmni=100
To make these settings persist over reboots, modify
/etc/sysctl.conf
.You will usually want to increase
kern.seminfo.semmni
andkern.seminfo.semmns
, as OpenBSD's default settings for these are uncomfortably small.In older OpenBSD versions, you will need to build a custom kernel to change the IPC parameters. Make sure that the options
SYSVSHM
andSYSVSEM
are enabled, too. (They are by default.) The following shows an example of how to set the various parameters in the kernel configuration file:option SYSVSHM option SHMMAXPGS=4096 option SHMSEG=256 option SYSVSEM option SEMMNI=256 option SEMMNS=512 option SEMMNU=256
- HP-UX
The default settings tend to suffice for normal installations. On HP-UX 10, the factory default for
SEMMNS
is 128, which might be too low for larger database sites.IPC parameters can be set in the System Administration Manager (SAM) under → . Choose when you're done.
- Linux
The default maximum segment size is 32 MB, and the default maximum total size is 2097152 pages. A page is almost always 4096 bytes except in unusual kernel configurations with “huge pages” (use
getconf PAGE_SIZE
to verify).The shared memory size settings can be changed via the
sysctl
interface. For example, to allow 16 GB:$
sysctl -w kernel.shmmax=17179869184
$
sysctl -w kernel.shmall=4194304
In addition these settings can be preserved between reboots in the file
/etc/sysctl.conf
. Doing that is highly recommended.Ancient distributions might not have the
sysctl
program, but equivalent changes can be made by manipulating the/proc
file system:$
echo 17179869184 >/proc/sys/kernel/shmmax
$
echo 4194304 >/proc/sys/kernel/shmall
The remaining defaults are quite generously sized, and usually do not require changes.
- macOS
The recommended method for configuring shared memory in macOS is to create a file named
/etc/sysctl.conf
, containing variable assignments such as:kern.sysv.shmmax=4194304 kern.sysv.shmmin=1 kern.sysv.shmmni=32 kern.sysv.shmseg=8 kern.sysv.shmall=1024
Note that in some macOS versions, all five shared-memory parameters must be set in
/etc/sysctl.conf
, else the values will be ignored.Beware that recent releases of macOS ignore attempts to set
SHMMAX
to a value that isn't an exact multiple of 4096.SHMALL
is measured in 4 kB pages on this platform.In older macOS versions, you will need to reboot to have changes in the shared memory parameters take effect. As of 10.5 it is possible to change all but
SHMMNI
on the fly, using sysctl. But it's still best to set up your preferred values via/etc/sysctl.conf
, so that the values will be kept across reboots.The file
/etc/sysctl.conf
is only honored in macOS 10.3.9 and later. If you are running a previous 10.3.x release, you must edit the file/etc/rc
and change the values in the following commands:sysctl -w kern.sysv.shmmax sysctl -w kern.sysv.shmmin sysctl -w kern.sysv.shmmni sysctl -w kern.sysv.shmseg sysctl -w kern.sysv.shmall
Note that
/etc/rc
is usually overwritten by macOS system updates, so you should expect to have to redo these edits after each update.In macOS 10.2 and earlier, instead edit these commands in the file
/System/Library/StartupItems/SystemTuning/SystemTuning
.- Solaris 2.6 to 2.9 (Solaris 6 to Solaris 9)
The relevant settings can be changed in
/etc/system
, for example:set shmsys:shminfo_shmmax=0x2000000 set shmsys:shminfo_shmmin=1 set shmsys:shminfo_shmmni=256 set shmsys:shminfo_shmseg=256 set semsys:seminfo_semmap=256 set semsys:seminfo_semmni=512 set semsys:seminfo_semmns=512 set semsys:seminfo_semmsl=32
You need to reboot for the changes to take effect. See also http://sunsite.uakom.sk/sunworldonline/swol-09-1997/swol-09-insidesolaris.html for information on shared memory under older versions of Solaris.
- Solaris 2.10 (Solaris 10) and later
OpenSolaris In Solaris 10 and later, and OpenSolaris, the default shared memory and semaphore settings are good enough for most Postgres Pro applications. Solaris now defaults to a
SHMMAX
of one-quarter of system RAM. To further adjust this setting, use a project setting associated with thepostgres
user. For example, run the following asroot
:projadd -c "Postgres Pro DB User" -K "project.max-shm-memory=(privileged,8GB,deny)" -U postgres -G postgres user.postgres
This command adds the
user.postgres
project and sets the shared memory maximum for thepostgres
user to 8GB, and takes effect the next time that user logs in, or when you restart Postgres Pro (not reload). The above assumes that Postgres Pro is run by thepostgres
user in thepostgres
group. No server reboot is required.Other recommended kernel setting changes for database servers which will have a large number of connections are:
project.max-shm-ids=(priv,32768,deny) project.max-sem-ids=(priv,4096,deny) project.max-msg-ids=(priv,4096,deny)
Additionally, if you are running Postgres Pro inside a zone, you may need to raise the zone resource usage limits as well. See "Chapter2: Projects and Tasks" in the System Administrator's Guide for more information on
projects
andprctl
.
18.4.2. systemd RemoveIPC
If systemd is in use, some care must be taken that IPC resources (including shared memory) are not prematurely removed by the operating system. This is especially of concern when installing Postgres Pro from source. Users of distribution packages of Postgres Pro are less likely to be affected, as the postgres
user is then normally created as a system user.
The setting RemoveIPC
in logind.conf
controls whether IPC objects are removed when a user fully logs out. System users are exempt. This setting defaults to on in stock systemd, but some operating system distributions default it to off.
A typical observed effect when this setting is on is that shared memory objects used for parallel query execution are removed at apparently random times, leading to errors and warnings while attempting to open and remove them, like
WARNING: could not remove shared memory segment "/PostgreSQL.1450751626": No such file or directory
Different types of IPC objects (shared memory vs. semaphores, System V vs. POSIX) are treated slightly differently by systemd, so one might observe that some IPC resources are not removed in the same way as others. But it is not advisable to rely on these subtle differences.
A “user logging out” might happen as part of a maintenance job or manually when an administrator logs in as the postgres
user or something similar, so it is hard to prevent in general.
What is a “system user” is determined at systemd compile time from the SYS_UID_MAX
setting in /etc/login.defs
.
Packaging and deployment scripts should be careful to create the postgres
user as a system user by using useradd -r
, adduser --system
, or equivalent.
Alternatively, if the user account was created incorrectly or cannot be changed, it is recommended to set
RemoveIPC=no
in /etc/systemd/logind.conf
or another appropriate configuration file.
Caution
At least one of these two things has to be ensured, or the Postgres Pro server will be very unreliable.
18.4.3. Resource Limits
Unix-like operating systems enforce various kinds of resource limits that might interfere with the operation of your Postgres Pro server. Of particular importance are limits on the number of processes per user, the number of open files per process, and the amount of memory available to each process. Each of these have a “hard” and a “soft” limit. The soft limit is what actually counts but it can be changed by the user up to the hard limit. The hard limit can only be changed by the root user. The system call setrlimit
is responsible for setting these parameters. The shell's built-in command ulimit
(Bourne shells) or limit
(csh) is used to control the resource limits from the command line. On BSD-derived systems the file /etc/login.conf
controls the various resource limits set during login. See the operating system documentation for details. The relevant parameters are maxproc
, openfiles
, and datasize
. For example:
default:\ ... :datasize-cur=256M:\ :maxproc-cur=256:\ :openfiles-cur=256:\ ...
(-cur
is the soft limit. Append -max
to set the hard limit.)
Kernels can also have system-wide limits on some resources.
On Linux the kernel parameter
fs.file-max
determines the maximum number of open files that the kernel will support. It can be changed withsysctl -w fs.file-max=
. To make the setting persist across reboots, add an assignment inN
/etc/sysctl.conf
. The maximum limit of files per process is fixed at the time the kernel is compiled; see/usr/src/linux/Documentation/proc.txt
for more information.
The Postgres Pro server uses one process per connection so you should provide for at least as many processes as allowed connections, in addition to what you need for the rest of your system. This is usually not a problem but if you run several servers on one machine things might get tight.
The factory default limit on open files is often set to “socially friendly” values that allow many users to coexist on a machine without using an inappropriate fraction of the system resources. If you run many servers on a machine this is perhaps what you want, but on dedicated servers you might want to raise this limit.
On the other side of the coin, some systems allow individual processes to open large numbers of files; if more than a few processes do so then the system-wide limit can easily be exceeded. If you find this happening, and you do not want to alter the system-wide limit, you can set Postgres Pro's max_files_per_process configuration parameter to limit the consumption of open files.
Another kernel limit that may be of concern when supporting large numbers of client connections is the maximum socket connection queue length. If more than that many connection requests arrive within a very short period, some may get rejected before the postmaster can service the requests, with those clients receiving unhelpful connection failure errors such as “Resource temporarily unavailable” or “Connection refused”. The default queue length limit is 128 on many platforms. To raise it, adjust the appropriate kernel parameter via sysctl, then restart the postmaster. The parameter is variously named net.core.somaxconn
on Linux, kern.ipc.soacceptqueue
on newer FreeBSD, and kern.ipc.somaxconn
on macOS and other BSD variants.
18.4.4. Linux Memory Overcommit
In Linux 2.4 and later, the default virtual memory behavior is not optimal for Postgres Pro. Because of the way that the kernel implements memory overcommit, the kernel might terminate the Postgres Pro postmaster (the master server process) if the memory demands of either Postgres Pro or another process cause the system to run out of virtual memory.
If this happens, you will see a kernel message that looks like this (consult your system documentation and configuration on where to look for such a message):
Out of Memory: Killed process 12345 (postgres).
This indicates that the postgres
process has been terminated due to memory pressure. Although existing database connections will continue to function normally, no new connections will be accepted. To recover, Postgres Pro will need to be restarted.
One way to avoid this problem is to run Postgres Pro on a machine where you can be sure that other processes will not run the machine out of memory. If memory is tight, increasing the swap space of the operating system can help avoid the problem, because the out-of-memory (OOM) killer is invoked only when physical memory and swap space are exhausted.
If Postgres Pro itself is the cause of the system running out of memory, you can avoid the problem by changing your configuration. In some cases, it may help to lower memory-related configuration parameters, particularly shared_buffers
and work_mem
. In other cases, the problem may be caused by allowing too many connections to the database server itself. In many cases, it may be better to reduce max_connections
and instead make use of external connection-pooling software.
On Linux 2.6 and later, it is possible to modify the kernel's behavior so that it will not “overcommit” memory. Although this setting will not prevent the OOM killer from being invoked altogether, it will lower the chances significantly and will therefore lead to more robust system behavior. This is done by selecting strict overcommit mode via sysctl
:
sysctl -w vm.overcommit_memory=2
or placing an equivalent entry in /etc/sysctl.conf
. You might also wish to modify the related setting vm.overcommit_ratio
. For details see the kernel documentation file https://www.kernel.org/doc/Documentation/vm/overcommit-accounting.
Another approach, which can be used with or without altering vm.overcommit_memory
, is to set the process-specific OOM score adjustment value for the postmaster process to -1000
, thereby guaranteeing it will not be targeted by the OOM killer. The simplest way to do this is to execute
echo -1000 > /proc/self/oom_score_adj
in the postmaster's startup script just before invoking the postmaster. Note that this action must be done as root, or it will have no effect; so a root-owned startup script is the easiest place to do it. If you do this, you should also set these environment variables in the startup script before invoking the postmaster:
export PG_OOM_ADJUST_FILE=/proc/self/oom_score_adj export PG_OOM_ADJUST_VALUE=0
These settings will cause postmaster child processes to run with the normal OOM score adjustment of zero, so that the OOM killer can still target them at need. You could use some other value for PG_OOM_ADJUST_VALUE
if you want the child processes to run with some other OOM score adjustment. (PG_OOM_ADJUST_VALUE
can also be omitted, in which case it defaults to zero.) If you do not set PG_OOM_ADJUST_FILE
, the child processes will run with the same OOM score adjustment as the postmaster, which is unwise since the whole point is to ensure that the postmaster has a preferential setting.
Older Linux kernels do not offer /proc/self/oom_score_adj
, but may have a previous version of the same functionality called /proc/self/oom_adj
. This works the same except the disable value is -17
not -1000
.
Note
Some vendors' Linux 2.4 kernels are reported to have early versions of the 2.6 overcommit sysctl
parameter. However, setting vm.overcommit_memory
to 2 on a 2.4 kernel that does not have the relevant code will make things worse, not better. It is recommended that you inspect the actual kernel source code (see the function vm_enough_memory
in the file mm/mmap.c
) to verify what is supported in your kernel before you try this in a 2.4 installation. The presence of the overcommit-accounting
documentation file should not be taken as evidence that the feature is there. If in any doubt, consult a kernel expert or your kernel vendor.
18.4.5. Linux Huge Pages
Using huge pages reduces overhead when using large contiguous chunks of memory, as Postgres Pro does, particularly when using large values of shared_buffers. To use this feature in Postgres Pro you need a kernel with CONFIG_HUGETLBFS=y
and CONFIG_HUGETLB_PAGE=y
. You will also have to adjust the kernel setting vm.nr_hugepages
. To estimate the number of huge pages needed, start Postgres Pro without huge pages enabled and check the postmaster's anonymous shared memory segment size, as well as the system's huge page size, using the /proc
file system. This might look like:
$head -1 $PGDATA/postmaster.pid
4170 $pmap 4170 | awk '/rw-s/ && /zero/ {print $2}'
6490428K $grep ^Hugepagesize /proc/meminfo
Hugepagesize: 2048 kB
6490428
/ 2048
gives approximately 3169.154
, so in this example we need at least 3170
huge pages, which we can set with:
$ sysctl -w vm.nr_hugepages=3170
A larger setting would be appropriate if other programs on the machine also need huge pages. Don't forget to add this setting to /etc/sysctl.conf
so that it will be reapplied after reboots.
Sometimes the kernel is not able to allocate the desired number of huge pages immediately, so it might be necessary to repeat the command or to reboot. (Immediately after a reboot, most of the machine's memory should be available to convert into huge pages.) To verify the huge page allocation situation, use:
$ grep Huge /proc/meminfo
It may also be necessary to give the database server's operating system user permission to use huge pages by setting vm.hugetlb_shm_group
via sysctl, and/or give permission to lock memory with ulimit -l
.
The default behavior for huge pages in Postgres Pro is to use them when possible and to fall back to normal pages when failing. To enforce the use of huge pages, you can set huge_pages to on
in postgresql.conf
. Note that with this setting Postgres Pro will fail to start if not enough huge pages are available.
For a detailed description of the Linux huge pages feature have a look at https://www.kernel.org/doc/Documentation/vm/hugetlbpage.txt.
18.4.6. Resource Prioritization
Postgres Pro Enterprise provides an experimental feature for resource prioritization.
On systems with limited resources or under heavy load, you may need to prioritize transaction execution, so that some transactions are executed more quickly than the other. For example, you may want to execute simple user queries as fast as possible, even if it delays less urgent tasks, such as complex OLAP queries that may be running at the same time. Postgres Pro Enterprise enables you to configure resource prioritization policy, which can slow down a particular session based on the amount of CPU, I/O read, and I/O write resources this session consumes as compared to other sessions.
By default, resource prioritization is disabled, so all backends have equal access to all the available resources. You can assign weight to each backend to control the amount of resources each session can use within the specified time interval. Depending on the current resource consumption, Postgres Pro Enterprise may suspend backends with lower weight from time to time to ensure that high-priority sessions have more resources available.
To enable prioritization in your database cluster:
Configure the time interval for collecting usage statistics for all active backends by setting the usage_tracking_interval parameter in the
postgresql.conf
file and reload the server configuration.Once the usage_tracking_interval parameter is set, Postgres Pro Enterprise starts collecting statistics on resource usage at the specified interval.
Tip
Avoid setting usage_tracking_interval to small values as frequent statistics collection can cause overhead.
Depending on the resources you need to control, modify one or more of the following parameters for the sessions you would like to prioritize:
session_cpu_weight — CPU usage.
session_ioread_weight — I/O read throughput.
session_iowrite_weight — I/O write throughput.
These parameters can take weight values
1
,2
,4
, and8
. The higher the value, the more resources the session can use. Sessions with the same weight have the same priority for resource usage, so if you assign equal weights to all sessions, performance is not affected, regardless of the weight value. By default, all sessions have weight4
for all types of resources.For all possible ways of modifying configuration for a particular session, see Section 19.1.
Once you change the weight of one or more sessions, Postgres Pro Enterprise enables prioritization policy based on the assigned weight values and the usage statistics measured for the previous usage_tracking_interval. Thus, session activity is adjusted for each usage tracking interval, if required.
Note
Even though weights for each resource are assigned separately, prioritizing a session by one resource can indirectly affect the session performance with regard to other resources.