Postgres Pro Enterprise в Alibaba Cloud
Руководство по созданию и использованию Postgres Pro Enterprise в Alibaba Cloud
Для использования БД Postgres Pro 9.6/10/11 в облаке Alibaba Cloud необходимо иметь доступ в Интернет и учетную запись в Alibaba Cloud.
Для установки используем образ виртуальной машины (VM) Postgres Pro 9.6/10/11, доступный в Alibaba Cloud Marketplace.
Требуемое ПО:
- 'aliyun-cli' 3.0 для управления облачными ресурсами в Alibaba Cloud
- 'psql' или 'Pgadmin' для доступа к БД
Используем кросс-платформенную утилиту 'aliyun-cli' 3.0.
Также можно использовать Alibaba Cloud Console https://home.console.aliyun.com/
Установка 'aliyun-cli' 3.0 описана в https://github.com/aliyun/aliyun-cli?spm=a2c63.p38356.a3.1.2b094388i8mudh#installation
Документация 'aliyun-cli' 3.0 доступна на https://www.alibabacloud.com/help/doc-detail/66653.htm?spm=a2c63.p38356.b99.2.3e564020fHDYUD
Подключение к Alibaba Cloud и проверка окружения
- Подключаемся к Alibaba Cloud и выполняем конфигурацию окружения с помощью команды:
aliyun configure
- Проверяем установленную версию 'aliyun-cli' (рекомендуется последняя доступная версия):
aliyun --version | head -1
- Список географических регионов и зон доступности для размещения VM:
aliyun ecs DescribeRegions \
--output cols=RegionId rows=Regions.Region
RegionId=ap-southeast-1
echo $RegionId
aliyun ecs DescribeZones \
--RegionId $RegionId \
--output cols=ZoneId rows=Zones.Zone
ZoneId=ap-southeast-1a
echo $ZoneId
Далее будем использовать географический регион ‘ap-southeast-1’ и зону доступности 'ap-southeast-1a'.
- Список доступных размеров VM:
aliyun ecs DescribeInstanceTypes \
--output cols=InstanceTypeId,CpuCoreCount,MemorySize rows=InstanceTypes.InstanceType
InstanceTypeId=ecs.xn4.small
echo $InstanceTypeId
Далее будем использовать размер VM ‘ecs.xn4.small’.
- Получаем название образов VM Postgres Pro, доступных в Alibaba Cloud Marketplace:
for i in `seq 1 10`; do
aliyun ecs DescribeImages \
--RegionId $RegionId \
--output cols=ImageId,ImageName,Progress,Status rows=Images.Image \
--PageSize 100 \
--ImageOwnerAlias marketplace \
--PageNumber $i | grep 'Postgres Pro Enterprise'
done
Далее будем использовать идентификатор образа VM:
--- Postgres Pro Enterprise Database 9.6 (CentOS 7) 9.6.12.1
ImageId=m-gw84u3520qjp4qhfzw4j
echo $ImageId
или
--- Postgres Pro Enterprise Database 10 (CentOS 7) 10.7.1
ImageId=m-gw84u3520qjp25qzpba8
echo $ImageId
или
--- Postgres Pro Enterprise Database 11 (CentOS 7) 11.2.1
ImageId=m-gw87b20h36m21rfowaxn
echo $ImageId
Создание VM
- Создаем виртуальную сетевую инфраструктуру:
aliyun ecs CreateVpc \
--RegionId $RegionId \
--CidrBlock '192.168.0.0/16' \
--VpcName ppro-vpc \
--Description ppro-vpc
VpcId=$(aliyun ecs DescribeVpcs --RegionId $RegionId --output cols=VpcId rows=Vpcs.Vpc | grep '^vpc')
echo $VpcId
aliyun ecs CreateVSwitch \
--ZoneId $ZoneId \
--CidrBlock '192.168.0.0/24' \
--VpcId $VpcId \
--VSwitchName ppro-vsw \
--Description ppro-vsw
VSwitchId=$(aliyun ecs DescribeVSwitches --RegionId $RegionId --output cols=VSwitchId rows=VSwitches.VSwitch | grep '^vsw')
echo $VSwitchId
- Создаем и конфигурируем сетевую группу безопасности:
aliyun ecs CreateSecurityGroup \
--RegionId $RegionId \
--Description ppro-sg \
--SecurityGroupName ppro-sg \
--VpcId $VpcId
SecurityGroupId=$(aliyun ecs DescribeSecurityGroups --RegionId $RegionId --output cols=SecurityGroupId rows=SecurityGroups.SecurityGroup | grep '^sg')
echo $SecurityGroupId
aliyun ecs AuthorizeSecurityGroup \
--RegionId $RegionId \
--SecurityGroupId $SecurityGroupId \
--IpProtocol tcp \
--PortRange 22/22 \
--Policy accept \
--SourceCidrIp 0.0.0.0/0 \
--Priority 1 \
--Description ssh
- В директории ~/.ssh создаем пару private/public ssh-ключей и импортируем public ssh-ключ для подключения к VM:
ssh-keygen -t rsa -b 2048
KeyPairNameId=ppro-key
echo $KeyPairNameId
aliyun ecs ImportKeyPair \
--RegionId $RegionId \
--PublicKeyBody '...' \
--KeyPairName $KeyPairNameId
aliyun ecs DescribeKeyPairs \
--RegionId $RegionId \
--KeyPairName $KeyPairNameId
- Создаем VM из образа, доступного в Alibaba Cloud Marketplace:
InstanceNameId=myvm-ent-xx
echo $InstanceNameId
aliyun ecs CreateInstance \
--RegionId $RegionId \
--ImageId $ImageId \
--InstanceType $InstanceTypeId \
--SecurityGroupId $SecurityGroupId \
--InstanceName $InstanceNameId \
--HostName $InstanceNameId \
--ZoneId $ZoneId \
--Description $InstanceNameId \
--InternetMaxBandwidthIn 1 \
--InternetMaxBandwidthOut 1 \
--VSwitchId $VSwitchId \
--InstanceChargeType PostPaid \
--IoOptimized optimized \
--SystemDisk.Category cloud_efficiency \
--SystemDisk.Size 40 \
--KeyPairName $KeyPairNameId \
--SecurityEnhancementStrategy active
- Присваиваем public IP-адрес VM и стартуем VM:
InstanceId=$(aliyun ecs DescribeInstances --RegionId $RegionId --output cols=InstanceId rows=Instances.Instance | grep '^i-')
echo $InstanceId
aliyun ecs AllocatePublicIpAddress \
--InstanceId $InstanceId
IpAddress=$(aliyun ecs DescribeInstances --RegionId $RegionId --output cols=PublicIpAddress.IpAddress rows=Instances.Instance | grep [0-9] | tr -d '[]')
echo $IpAddress
aliyun ecs StartInstance \
--InstanceId $InstanceId
aliyun ecs DescribeInstances \
--RegionId $RegionId \
--output cols=InstanceId,Status,InstanceName rows=Instances.Instance
Вместо ‘xx’ используем '01', '02', '03' и т.д.
Подключение к VM
В результате создается VM с public IP-адресом - $IpAddress.
- Подключаемся к VM с помощью private ssh-ключа:
ssh root@$IpAddress
Проверка статуса сервиса БД Postgres Pro
- Проверяем статус сервиса БД Postgres Pro:
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo systemctl -l status postgrespro-ent-10.service
или
sudo systemctl -l status postgrespro-ent-11.service
- Чтобы остановить/стартовать сервис БД Postgres Pro используем команды:
sudo systemctl stop postgrespro-enterprise-9.6.service
sudo systemctl start postgrespro-enterprise-9.6.service
или
sudo systemctl stop postgrespro-ent-10.service
sudo systemctl start postgrespro-ent-10.service
или
sudo systemctl stop postgrespro-ent-11.service
sudo systemctl start postgrespro-ent-11.service
Подключение к БД Postgres Pro
- Переключаемся на пользователя ‘postgres’:
sudo su - postgres
- Для подключения к БД Postgres Pro используем команду:
psql
- Для выхода из ‘psql’ используем команду:
\q
- Для возврата в интерфейс 'aliyun-cli' 3.0 дважды выполняем команду 'exit'
Внешний доступ к VM
- При необходимости внешнего подключения к БД Postgres Pro открываем порт 5433:
aliyun ecs AuthorizeSecurityGroup \
--RegionId $RegionId \
--SecurityGroupId $SecurityGroupId \
--IpProtocol tcp \
--PortRange 5433/5433 \
--Policy accept \
--SourceCidrIp 0.0.0.0/0 \
--Priority 2 \
--Description postgres
- При необходимости внешнего подключения к серверу мониторинга БД открываем порты 80 и 443:
aliyun ecs AuthorizeSecurityGroup \
--RegionId $RegionId \
--SecurityGroupId $SecurityGroupId \
--IpProtocol tcp \
--PortRange 80/80 \
--Policy accept \
--SourceCidrIp 0.0.0.0/0 \
--Priority 3 \
--Description http
aliyun ecs AuthorizeSecurityGroup \
--RegionId $RegionId \
--SecurityGroupId $SecurityGroupId \
--IpProtocol tcp \
--PortRange 443/443 \
--Policy accept \
--SourceCidrIp 0.0.0.0/0 \
--Priority 4 \
--Description https
Внешнее подключение к БД Postgres Pro
- Для внешнего подключения к БД Postgres Pro устанавливаем пароль пользователя 'postgres':
ssh root@$IpAddress
sudo su - postgres
psql -c "alter user postgres with encrypted password 'YOUR_POSTGRES_USER_PASSWORD'"
exit
exit
- Для внешнего подключения к БД Postgres Pro с помощью 'psql' используем команду:
psql --host=$IpAddress --port=5433 --username=postgres --dbname=postgres
- Для внешнего подключения к БД Postgres Pro с помощью 'Pgadmin' при конфигурации сервера в меню ‘Pgadmin’ используем следующие параметры:
- ‘mydb-xx’ для ‘Name'
- ‘$IpAddress’ для ‘Host’
- '5433' для ‘Port’
- ‘postgres’ для ‘Maintenance DB’
- ‘postgres’ для ‘Username’
Вместо ‘xx’ используем '01', '02', '03' и т.д.
Вместо ‘$IpAddress’ используем public IP-адрес VM.
Внешнее подключение к серверу мониторинга БД
- Для подключения к серверу мониторинга БД устанавливаем пароль пользователя 'Admin':
ssh root@$IpAddress
sudo su - postgres
source .pgsql_profile
psql --dbname=zabbix --username=zabbix -c "update users set passwd=md5('YOUR_ZABBIX_ADMIN_PASSWORD') where alias='Admin'"
exit
exit
- Внешнее подключение к серверу мониторинга БД по ссылке:
Вместо ‘$IpAddress’ используем public IP-адрес VM.
Изменение конфигурации VM
Рассмотрим варианты изменения конфигурации VM:
1) Необходимо изменить размер VM с ‘ecs.xn4.small’ на ‘ecs.n1.medium’ для увеличения вычислительной мощности VM
- Для автоматического изменения значений параметров БД Postgres Pro перед увеличением размера VM нужно удалить файл $PGDATA/postgresql.tune.lock:
ssh root@$IpAddress
sudo su - postgres
cp $PGDATA/postgresql.auto.conf $PGDATA/postgresql.auto.conf.ORIG
rm $PGDATA/postgresql.tune.lock
exit
exit
- Получаем список доступных размеров VM:
aliyun ecs DescribeInstanceTypes \
--output cols=InstanceTypeId,CpuCoreCount,MemorySize rows=InstanceTypes.InstanceType
- Чтобы изменить размер VM, выполняем:
aliyun ecs StopInstance \
--InstanceId $InstanceId
InstanceTypeId=ecs.n1.medium
echo $InstanceTypeId
aliyun ecs ModifyInstanceSpec \
--InstanceId $InstanceId \
--InstanceType $InstanceTypeId
aliyun ecs StartInstance \
--InstanceId $InstanceId
2) Необходимо увеличить размер ОС-диска, например, до 80 ГБ
- Получаем информацию об ОС-диске:
aliyun ecs DescribeDisks \
--RegionId $RegionId \
--DiskType=system \
--output cols=Type,Device,Size rows=Disks.Disk
- Временно останавливаем VM:
aliyun ecs StopInstance \
--InstanceId $InstanceId
- Увеличиваем размер ОС-диска:
DiskId=$(aliyun ecs DescribeDisks --RegionId $RegionId --DiskType=system --output cols=DiskId rows=Disks.Disk | grep '^d-')
echo $DiskId
aliyun ecs ResizeDisk \
--DiskId $DiskId \
--NewSize 80
- Проверяем обновленную информацию об ОС-диске:
aliyun ecs DescribeDisks \
--RegionId $RegionId \
--DiskType=system \
--output cols=Type,Device,Size rows=Disks.Disk
- Стартуем VM:
aliyun ecs StartInstance \
--InstanceId $InstanceId
- Подключаемся к VM:
ssh root@$IpAddress
- Увеличиваем размер раздела файловой системы ‘/’:
(echo d; echo 1; echo n; echo p; echo 1; echo ; echo ; echo w) | sudo fdisk /dev/vda
- Выполняем перезагрузку VM:
sudo reboot
- Подключаемся к VM:
ssh root@$IpAddress
- Увеличиваем размер файловой системы ‘/’:
sudo resize2fs /dev/vda1
- Выполняем перезагрузку VM:
sudo reboot
3) Необходимо использовать выделенный диск для хранения файлов БД Postgres Pro, например, с целью повышения производительности
- Создаем новый диск размером 200 ГБ и подключаем его к VM:
aliyun ecs CreateDisk \
--RegionId $RegionId \
--ZoneId $ZoneId \
--DiskName myvm-ent-xx-datadisk \
--Description myvm-ent-xx-datadisk \
--DiskCategory cloud_efficiency \
--Size 200
DiskId=$(aliyun ecs DescribeDisks --RegionId $RegionId --DiskType=data --output cols=DiskId rows=Disks.Disk | grep '^d-')
echo $DiskId
aliyun ecs AttachDisk \
--InstanceId $InstanceId \
--DiskId $DiskId
- Подключаемся к VM:
ssh root@$IpAddress
- Останавливаем сервис БД Postgres Pro и проверяем его статус:
sudo systemctl stop postgrespro-enterprise-9.6.service
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo systemctl stop postgrespro-ent-10.service
sudo systemctl -l status postgrespro-ent-10.service
или
sudo systemctl stop postgrespro-ent-11.service
sudo systemctl -l status postgrespro-ent-11.service
- Создаем точку монтирования новой файловой системы:
sudo mkdir /PGDATA
- С помощью утилиты 'fdisk' определяем имя устройства, назначенного новому диску (в нашем случае это /dev/vdb):
sudo fdisk -l
- На этом диске создаем один раздел максимального размера, на разделе создаем файловую систему:
(echo n; echo p; echo 1; echo ; echo ; echo w) | sudo fdisk /dev/vdb
sudo mkfs -t ext4 /dev/vdb1
- Для файловой системы раздела выделенного диска создаем запись в файле /etc/fstab и монтируем файловую систему:
sudo sh -c "echo '`sudo blkid -o export /dev/vdb1 | grep UUID` /PGDATA ext4 defaults,nofail,barrier=0 1 2' >> /etc/fstab"
sudo mount /PGDATA
- Создаем директорию 'data' на новой файловой системе и устанавливаем для нее необходимые разрешения:
sudo mkdir /PGDATA/data
sudo chown postgres:postgres /PGDATA/data
sudo chmod 0700 /PGDATA/data
- Переключаемся на пользователя ‘postgres’ и переносим файлы БД Postgres Pro на новую файловую систему:
sudo su - postgres
mv /var/lib/pgproee/9.6/data/* /PGDATA/data; rmdir /var/lib/pgproee/9.6/data; ln -s /PGDATA/data /var/lib/pgproee/9.6/data
или
mv /var/lib/pgpro/ent-10/data/* /PGDATA/data; rmdir /var/lib/pgpro/ent-10/data; ln -s /PGDATA/data /var/lib/pgpro/ent-10/data
или
mv /var/lib/pgpro/ent-11/data/* /PGDATA/data; rmdir /var/lib/pgpro/ent-11/data; ln -s /PGDATA/data /var/lib/pgpro/ent-11/data
exit
- Стартуем сервис БД Postgres Pro и проверяем его статус:
sudo systemctl start postgrespro-enterprise-9.6.service
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo systemctl start postgrespro-ent-10.service
sudo systemctl -l status postgrespro-ent-10.service
или
sudo systemctl start postgrespro-ent-11.service
sudo systemctl -l status postgrespro-ent-11.service
- Выполняем перезагрузку VM, проверяем автоматическое монтирование файловой системы и статус сервиса БД Postgres Pro:
sudo reboot
ssh root@$IpAddress
sudo mount | grep /PGDATA
sudo df -h /PGDATA
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo systemctl -l status postgrespro-ent-10.service
или
sudo systemctl -l status postgrespro-ent-11.service
Вместо ‘xx’ используем '01', '02', '03' и т.д.
4) Автоматический перезапуск сервиса базы данных в случае аварии
- Добавляем настройку автоматического перезапуска сервиса базы данных в конфигурационном файле systemd и перезапускаем сервис базы данных:
sudo sed -i '/KillSignal=/a Restart=on-failure' /usr/lib/systemd/system/postgrespro-enterprise-9.6.service
sudo systemctl daemon-reload
sudo systemctl restart postgrespro-enterprise-9.6.service
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo sed -i '/KillSignal=/a Restart=on-failure' /usr/lib/systemd/system/postgrespro-ent-10.service
sudo systemctl daemon-reload
sudo systemctl restart postgrespro-ent-10.service
sudo systemctl -l status postgrespro-ent-10.service
или
sudo sed -i '/KillSignal=/a Restart=on-failure' /usr/lib/systemd/system/postgrespro-ent-11.service
sudo systemctl daemon-reload
sudo systemctl restart postgrespro-ent-11.service
sudo systemctl -l status postgrespro-ent-11.service
Резервное копирование VM
Postgres Pro Enterprise Multimaster
Multimaster - это расширение Postgres Pro Enterprise, которое в сочетании с набором доработок ядра превращает Postgres Pro Enterprise в синхронный кластер без разделения ресурсов, обеспечивающий расширяемость OLTP для читающих транзакций, а также высокую доступность с автоматическим восстановлением после сбоев.
Более подробная информация о Multimaster доступна по ссылкам:
https://postgrespro.ru/docs/enterprise/9.6/multimaster.html
или
https://postgrespro.ru/docs/enterprise/10/multimaster
или
https://postgrespro.ru/docs/enterprise/11/multimaster
Рассмотрим процесс установки и настройки трехузлового Multimaster. Далее будем использовать следующие названия узлов Multimaster: 'myvm-ent-01', 'myvm-ent-02' и 'myvm-ent-03'.
- Используя созданные виртуальную сетевую инфраструктуру ($VpcId, $VSwitchId) и сетевую группу безопасности ($SecurityGroupId) создаем три VM:
InstanceTypeId=ecs.mn4.small
echo $InstanceTypeId
for i in `seq 1 3`; do
aliyun ecs CreateInstance \
--RegionId $RegionId \
--ImageId $ImageId \
--InstanceType $InstanceTypeId \
--SecurityGroupId $SecurityGroupId \
--InstanceName myvm-ent-0$i \
--HostName myvm-ent-0$i \
--ZoneId $ZoneId \
--Description myvm-ent-0$i \
--InternetMaxBandwidthIn 1 \
--InternetMaxBandwidthOut 1 \
--VSwitchId $VSwitchId \
--InstanceChargeType PostPaid \
--IoOptimized optimized \
--SystemDisk.Category cloud_efficiency \
--SystemDisk.Size 40 \
--KeyPairName $KeyPairNameId \
--SecurityEnhancementStrategy active \
--PrivateIpAddress 192.168.0.10$i
done
Назначение private IP-адресов: 192.168.0.101 (myvm-ent-01), 192.168.0.102 (myvm-ent-02), 192.168.0.103 (myvm-ent-03).
- Присваиваем public IP-адреса трем VM и стартуем три VM:
for i in `seq 1 3`; do
InstanceId=$(aliyun ecs DescribeInstances --RegionId $RegionId --output cols=InstanceId,InstanceName rows=Instances.Instance | grep '^i-' | grep myvm-ent-0$i | awk '{print $1}')
echo $InstanceId
aliyun ecs AllocatePublicIpAddress \
--InstanceId $InstanceId
aliyun ecs StartInstance \
--InstanceId $InstanceId
done
aliyun ecs DescribeInstances \
--RegionId $RegionId \
--output cols=InstanceId,Status,InstanceName,PublicIpAddress.IpAddress rows=Instances.Instance
- Подключаемся ко всем трем VM:
for i in `seq 1 3`; do
export IpAddress_0$i=$(aliyun ecs DescribeInstances --RegionId $RegionId --output cols=PublicIpAddress.IpAddress,InstanceName rows=Instances.Instance | grep [0-9] | tr -d '[]' | grep myvm-ent-0$i | awk '{print $1}')
done
ssh root@$IpAddress_01
ssh root@$IpAddress_02
ssh root@$IpAddress_03
- и выполняем одинаковый набор команд на каждой из них:
--- Postgres Pro Enterprise 9.6/10/11
for i in `seq 1 3`; do
sudo sh -c "echo '192.168.0.10$i myvm-ent-0$i' >> /etc/hosts"
done
- Конфигурируем firewall для трафика Multimaster arbiter через TCP-порт '5555':
--- Postgres Pro Enterprise 9.6/10
sudo firewall-cmd --zone=public --add-port=5555/tcp
sudo firewall-cmd --zone=public --permanent --add-port=5555/tcp
sudo systemctl restart firewalld
- Конфигурируем реплицируемую БД 'mydb':
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
psql -c "create user myuser with superuser encrypted password 'myuserpassword'"
psql --username=myuser -c "create database mydb"
sed -i 's/PGDATABASE=postgres/PGDATABASE=mydb/' .pgpro_profile
sed -i 's/PGUSER=postgres/PGUSER=myuser/' .pgpro_profile
source .pgpro_profile
for i in `seq 1 3`; do
echo "hostssl replication myuser myvm-ent-0$i md5" >> $PGDATA/pg_hba.conf
echo "myvm-ent-0$i:5433:mydb:myuser:myuserpassword" >> ~/.pgpass
done
chmod 0600 ~/.pgpass
pg_ctl reload
--- Postgres Pro Enterprise 9.6/10
node_id=`hostname | awk -F "-" '{ print substr($3,2,1) }'`
echo "" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "#------------------------------------------------------------------------------" >> $PGDATA/postgresql.conf
echo "# MULTIMASTER SETTINGS" >> $PGDATA/postgresql.conf
echo "#------------------------------------------------------------------------------" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "multimaster.cluster_name = mymmts" >> $PGDATA/postgresql.conf
echo "multimaster.max_nodes = 3" >> $PGDATA/postgresql.conf
echo "multimaster.node_id = $node_id" >> $PGDATA/postgresql.conf
echo "multimaster.arbiter_port = 5555" >> $PGDATA/postgresql.conf
echo "multimaster.conn_strings = 'dbname=mydb user=myuser host=myvm-ent-01 port=5433 sslmode=require arbiter_port=5555,dbname=mydb user=myuser host=myvm-ent-02 port=5433 sslmode=require arbiter_port=5555,dbname=mydb user=myuser host=myvm-ent-03 port=5433 sslmode=require arbiter_port=5555'" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
--- Postgres Pro Enterprise 11
echo "" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "#------------------------------------------------------------------------------" >> $PGDATA/postgresql.conf
echo "# MULTIMASTER SETTINGS" >> $PGDATA/postgresql.conf
echo "#------------------------------------------------------------------------------" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "multimaster.max_nodes = 3" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
echo "" >> $PGDATA/postgresql.conf
--- Postgres Pro Enterprise 9.6/10/11
psql -c "alter system set default_transaction_isolation to 'read committed'"
psql -c "alter system set wal_level to logical"
psql -c "alter system set max_connections to 100"
psql -c "alter system set max_prepared_transactions to 300"
psql -c "alter system set max_wal_senders to 10"
psql -c "alter system set max_replication_slots to 10"
psql -c "alter system set max_worker_processes to 250"
psql -c "alter system set shared_preload_libraries to multimaster,pg_stat_statements,pg_buffercache,pg_wait_sampling"
--- Postgres Pro Enterprise 11
psql -c "alter system set wal_sender_timeout to 0"
--- Postgres Pro Enterprise 9.6/10/11
exit
- Конфигурируем агент mamonsu для БД 'mydb' и перезапускаем сервис mamonsu:
--- Postgres Pro Enterprise 9.6/10/11
sudo sed -i 's|user = mamonsu|user = myuser|' /etc/mamonsu/agent.conf
sudo sed -i 's|database = mamonsu|database = mydb|' /etc/mamonsu/agent.conf
sudo systemctl restart mamonsu.service
- Перезапускаем сервис БД Postgres Pro и проверяем его статус:
--- Postgres Pro Enterprise 9.6/10/11
sudo systemctl restart postgrespro-enterprise-9.6.service
sudo systemctl -l status postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
sudo systemctl -l status postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
sudo systemctl -l status postgrespro-ent-11.service
exit
- Подключаемся к первой VM:
--- Postgres Pro Enterprise 9.6/10/11
ssh root@$IpAddress_01
- и создаем расширение Multimaster:
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
psql
create extension if not exists multimaster;
--- Postgres Pro Enterprise 11
select mtm.init_cluster('dbname=mydb user=myuser host=myvm-ent-01 port=5433 sslmode=require','{"dbname=mydb user=myuser host=myvm-ent-02 port=5433 sslmode=require", "dbname=mydb user=myuser host=myvm-ent-03 port=5433 sslmode=require"}');
--- Postgres Pro Enterprise 9.6/10/11
\q
- Создаем другие расширения для сервиса mamonsu:
--- Postgres Pro Enterprise 9.6/10/11
psql -c "create extension if not exists pg_buffercache"
psql -c "create extension if not exists pg_stat_statements"
psql -c "create extension if not exists pg_wait_sampling"
- Проверяем, что все расширения были успешно созданы:
--- Postgres Pro Enterprise 9.6/10/11
psql --host=myvm-ent-01 -c "select * from pg_extension"
psql --host=myvm-ent-02 -c "select * from pg_extension"
psql --host=myvm-ent-03 -c "select * from pg_extension"
- Конфигурируем mamonsu для Multimaster:
--- Postgres Pro Enterprise 9.6/10/11
mamonsu bootstrap --dbname mydb --username postgres --host 127.0.0.1 --port 5433 --mamonsu-username=myuser
psql --host=myvm-ent-01 -c "select mtm.make_table_local('mamonsu_config')"
psql --host=myvm-ent-01 -c "select mtm.make_table_local('mamonsu_timestamp_master_2_4_1')"
- Для проверки состояния Multimaster используем следующие команды:
--- Postgres Pro Enterprise 9.6/10
psql --host=myvm-ent-01 -x -c "select mtm.collect_cluster_info()"
psql --host=myvm-ent-01 -x -c "select mtm.get_nodes_state()"
psql --host=myvm-ent-01 -x -c "select mtm.get_cluster_state()"
psql --host=myvm-ent-02 -x -c "select mtm.get_cluster_state()"
psql --host=myvm-ent-03 -x -c "select mtm.get_cluster_state()"
--- Postgres Pro Enterprise 11
psql --host=myvm-ent-01 -x -c "select mtm.status()"
psql --host=myvm-ent-02 -x -c "select mtm.status()"
psql --host=myvm-ent-03 -x -c "select mtm.status()"
psql --host=myvm-ent-01 -x -c "select mtm.nodes()"
psql --host=myvm-ent-02 -x -c "select mtm.nodes()"
psql --host=myvm-ent-03 -x -c "select mtm.nodes()"
- Для возврата в интерфейс 'aliyun-cli' 3.0 дважды выполняем команду 'exit'
Внешнее подключение к БД Postgres Pro Enterprise Multimaster
Postgres Pro Enterprise Multimaster (2-х узловой кластер + голосующий узел)
3-х узловой Multimaster требует тройной объем дискового пространства для базы данных. Возможно использовать 2-х узловой Multimaster, назначив одному из узлов дополнительный голос на случай потери связи между узлами (multimaster.major_node=on), или, заменив один из узлов Multimaster на голосующий узел, требующий значительно меньший объем дискового пространства для базы данных.
Рассмотрим изменение конфигурации Multimaster из 3-х узлового в 2-х узловой кластер + голосующий узел.
- Исключаем узел 'myvm-ent-03' из конфигурации Multimaster и удаляем все настройки, связанные с Multimster, на этом узле:
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
sed -i '/multimaster/d' $PGDATA/postgresql.conf
psql --host=myvm-ent-03 -c "alter system set shared_preload_libraries to pg_stat_statements,pg_buffercache,pg_wait_sampling"
--- Postgres Pro Enterprise 9.6/10
psql --host=myvm-ent-01 -c "select mtm.stop_node(3, true)"
psql --host=myvm-ent-01 -x -c "select mtm.collect_cluster_info()"
--- Postgres Pro Enterprise 11
psql --host=myvm-ent-01 -c "select mtm.drop_node(3)"
psql --host=myvm-ent-01 -x -c "select mtm.nodes()"
--- Postgres Pro Enterprise 9.6/10/11
exit
sudo systemctl restart postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
sudo su - postgres
psql --host=myvm-ent-03 -c "drop extension multimaster"
psql --host=myvm-ent-03 -c "create extension referee"
exit
sudo systemctl restart postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
- Меняем настройки Multimster на узле 'myvm-ent-01':
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
psql --host=myvm-ent-01 -c "alter system set multimaster.referee_connstring = 'dbname=mydb user=myuser host=myvm-ent-03 port=5433 sslmode=require'"
--- Postgres Pro Enterprise 9.6/10
psql --host=myvm-ent-01 -c "alter system set multimaster.conn_strings = 'dbname=mydb user=myuser host=myvm-ent-01 port=5433 sslmode=require arbiter_port=5555,dbname=mydb user=myuser host=myvm-ent-02 port=5433 sslmode=require arbiter_port=5555'"
--- Postgres Pro Enterprise 9.6/10/11
exit
sudo systemctl restart postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
- и на узле 'myvm-ent-02':
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
psql --host=myvm-ent-02 -c "alter system set multimaster.referee_connstring = 'dbname=mydb user=myuser host=myvm-ent-03 port=5433 sslmode=require'"
--- Postgres Pro Enterprise 9.6/10
psql --host=myvm-ent-02 -c "alter system set multimaster.conn_strings = 'dbname=mydb user=myuser host=myvm-ent-01 port=5433 sslmode=require arbiter_port=5555,dbname=mydb user=myuser host=myvm-ent-02 port=5433 sslmode=require arbiter_port=5555'"
--- Postgres Pro Enterprise 9.6/10/11
exit
sudo systemctl restart postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
- Удаляем слоты репликации и завершаем конфигурацию настроек на узле 'myvm-ent-03':
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
--- Postgres Pro Enterprise 9.6/10
psql --host=myvm-ent-03 -c "select * from pg_replication_slots"
psql --host=myvm-ent-03 -c "select pg_drop_replication_slot('mtm_slot_1')"
psql --host=myvm-ent-03 -c "select pg_drop_replication_slot('mtm_slot_2')"
psql --host=myvm-ent-03 -c "select * from pg_replication_slots"
--- Postgres Pro Enterprise 9.6/10/11
sed -i '/^#/!d' $PGDATA/postgresql.auto.conf
echo "shared_preload_libraries = 'pg_stat_statements, pg_buffercache, pg_wait_sampling'" >> $PGDATA/postgresql.auto.conf
exit
sudo systemctl restart postgrespro-enterprise-9.6.service
или
sudo systemctl restart postgrespro-ent-10.service
или
sudo systemctl restart postgrespro-ent-11.service
- Проверяем статус Multimaster на каждом узле:
--- Postgres Pro Enterprise 9.6/10/11
sudo su - postgres
--- Postgres Pro Enterprise 9.6/10
psql --dbname=mydb --username=myuser --host=myvm-ent-01 --port=5433 -c "select mtm.collect_cluster_info()"
psql --dbname=mydb --username=myuser --host=myvm-ent-02 --port=5433 -c "select mtm.collect_cluster_info()"
--- Postgres Pro Enterprise 11
psql --dbname=mydb --username=myuser --host=myvm-ent-01 --port=5433 -x -c "select mtm.nodes()"
psql --dbname=mydb --username=myuser --host=myvm-ent-02 --port=5433 -x -c "select mtm.nodes()"
--- Postgres Pro Enterprise 9.6/10/11
psql --dbname=mydb --username=myuser --host=myvm-ent-03 --port=5433 -c "select * from referee.decision"
exit
Postgres Pro Enterprise CFS (сжатая файловая система):
Для использования возможностей расширения Postgres Pro Enterprise CFS (сжатая файловая система) необходимо выполнить следующие действия.
- На файловой системе создаем директорию для табличного пространства 'cfs_ts' и табличное пространство 'cfs_ts' в базе данных:
sudo su - postgres
mkdir $PGDATA/../cfs_ts
chmod 0700 $PGDATA/../cfs_ts
psql -c "create tablespace cfs_ts location '/var/lib/pgproee/9.6/cfs_ts' with (compression=true)"
или
psql -c "create tablespace cfs_ts location '/var/lib/pgpro/ent-10/cfs_ts' with (compression=true)"
или
psql -c "create tablespace cfs_ts location '/var/lib/pgpro/ent-11/cfs_ts' with (compression=true)"
exit
- Проверяем, что табличное пространство 'cfs_ts' создано с опцией 'compression=true' option:
sudo su - postgres
psql -c "select * from pg_tablespace"
exit
Используем табличное пространство 'cfs_ts' для новых объектов БД:
- При создании объекта БД:
sudo su - postgres
psql -c "create table t1 (t int) tablespace cfs_ts"
psql -c "select tablename, tablespace from pg_tables where schemaname = 'public'"
exit
- Установив табличное пространство по умолчанию для текущего подключения к БД:
sudo su - postgres
psql
set default_tablespace=cfs_ts;
show default_tablespace;
create table t2 (t int);
select tablename, tablespace from pg_tables where schemaname = 'public';
\q
exit
- Установив табличное пространство по умолчанию для БД:
sudo su - postgres
psql --dbname=postgres -c "alter database mydb set tablespace cfs_ts"
psql -c "select datname, dattablespace from pg_database"
exit
- Установив табличное пространство по умолчанию для пользователя/роли:
sudo su - postgres
psql --username=postgres -c "alter user myuser set default_tablespace to 'cfs_ts'"
psql -c "select usename, useconfig from pg_user"
psql -c "select rolname, rolconfig from pg_roles"
exit
Переносим существующие объекты БД из одного табличного пространства ('pg_default') в другое ('cfs_ts'):
- По одному:
sudo su - postgres
psql -c "create table t3 (t int)"
psql -c "alter table t3 set tablespace cfs_ts"
psql -c "select tablename, tablespace from pg_tables where schemaname = 'public'"
exit
- Все вместе:
sudo su - postgres
psql -c "alter table all in tablespace pg_default set tablespace cfs_ts"
psql -c "select tablename, tablespace from pg_tables where schemaname = 'public'"
exit
В зависимости от данных, хранимых в табличном пространстве 'cfs_ts', коэффициент сжатия может варьироваться.
Состав VM Postgres Pro Enterprise 9.6/10/11:
ОС - Linux CentOS 7.x (64-бит)
- учетная запись 'postgres'
- учетная запись 'zabbix'
- учетная запись 'mamonsu'
Размер ОС-диска - 40 ГБ
- файловая система ext4 ‘/’ (/dev/vda1) - 40 ГБ
Основная БД Postgres Pro Enterprise
- версия БД: 9.6/10/11
- TCP-порт: 5433 (открыт на firewall)
- конфигурация: /var/lib/pgsql/.pgpro_profile
- учетная запись: 'postgres'
Мониторинг БД (сервер)
- версия zabbix-server: 3.4
- TCP-порты: 80/443 (открыт на firewall)
- учетная запись: 'Admin'
Мониторинг БД (агент)
- версия zabbix-agent: 3.4
- версия mamonsu-agent: 2.4.1
- конфигурация: /etc/mamonsu/agent.conf
Вспомогательная БД PostgreSQL (в качестве БД для zabbix-server)
- версия БД: 9.6/10/11
- TCP-порт: 5432
- конфигурация: /var/lib/pgsql/.pgsql_profile
- учетная запись: 'postgres'
Ссылки на документацию
- Postgres Pro Enterprise: https://postgrespro.ru/docs/enterprise
- Zabbix: https://www.zabbix.com/documentation/3.4/start
- Mamonsu: https://github.com/postgrespro/mamonsu/#mamonsu-monitoring-agent-for-postgresql
- Pgadmin: https://www.pgadmin.org/docs