8.14. Типы JSON
Типы JSON предназначены для хранения данных JSON (JavaScript Object Notation, Запись объекта JavaScript) согласно стандарту RFC 7159. Такие данные можно хранить и в типе text
, но типы JSON лучше тем, что проверяют, соответствует ли вводимое значение формату JSON. Для работы с ними есть также несколько специальных функций и операторов; см. Раздел 9.15.
Существуют два типа данных JSON: json
и jsonb
. Они принимают на вход почти одинаковые наборы значений, а отличаются главным образом с точки зрения эффективности. Тип json
сохраняет точную копию введённого текста, которую функции обработки должны разбирать заново при каждом выполнении запроса, тогда как данные jsonb
сохраняются в разобранном двоичном формате, что несколько замедляет ввод из-за преобразования, но значительно ускоряет обработку, не требуя многократного разбора текста. Кроме того, jsonb
поддерживает индексацию, что тоже может быть очень полезно.
Так как тип json
сохраняет точную копию введённого текста, он сохраняет семантически незначащие пробелы между элементами, а также порядок ключей в JSON-объектах. И если JSON-объект внутри содержит повторяющиеся ключи, этот тип сохранит все пары ключ/значение. (Функции обработки будут считать действительной последнюю пару.) Тип jsonb
, напротив, не сохраняет пробелы, порядок ключей и значения с дублирующимися ключами. Если во входных данных оказываются дублирующиеся ключи, сохраняется только последнее значение.
Для большинства приложений предпочтительнее хранить данные JSON в типе jsonb
(если нет особых противопоказаний, например важны прежние предположения о порядке ключей объектов).
PostgreSQL позволяет использовать только одну кодировку символов в базе данных, поэтому данные JSON не будут полностью соответствовать спецификации, если кодировка базы данных не UTF-8. При этом нельзя будет вставить символы, непредставимые в кодировке сервера, и наоборот, допустимыми будут символы, представимые в кодировке сервера, но не в UTF-8.
RFC 7159 разрешает включать в строки JSON спецпоследовательности Unicode в виде \u
. В функцию ввода для типа XXXX
json
эти спецпоследовательности допускаются вне зависимости от кодировки базы данных, и проверяется только правильность их синтаксиса (за \u
должны следовать четыре шестнадцатеричных цифры). Однако, функция ввода для типа jsonb
более строгая: она не допускает спецпоследовательности Unicode для не ASCII-символов (символов после U+007F
), если кодировка базы данных не UTF8. Тип jsonb
также не принимает \u0000
(так как это значение не может быть представлено в типе text
PostgreSQL) и требует, чтобы суррогатные пары Unicode использовались для представления символов вне основной многоязыковой плоскости (BMP) правильно. Корректные спецпоследовательности Unicode преобразуются для хранения в соответствующий символ ASCII или UTF8 (это подразумевает сворачивание суррогатных пар в один символ).
Примечание
Многие из функций обработки JSON, описанные в Разделе 9.15, преобразуют спецпоследовательности Unicode в обычные символы, поэтому могут выдавать подобные ошибки, даже если им на вход поступает тип json
, а не jsonb
. То, что функция ввода в тип json
не производит этих проверок, можно считать историческим артефактом, хотя это и позволяет просто сохранять (но не обрабатывать) в JSON спецкоды Unicode в базе данных с кодировкой не UTF8. Вообще же, по возможности следует избегать смешения спецкодов Unicode в JSON с кодировкой базой данных не UTF8.
При преобразовании вводимого текста JSON в тип jsonb
, примитивные типы, описанные в RFC 7159, по сути отображаются в собственные типы PostgreSQL как показано в Таблице 8.23. Таким образом, к содержимому типа jsonb
предъявляются некоторые дополнительные требования, продиктованные ограничениями представления нижележащего типа данных, которые не распространяются ни на тип json
, ни на формат JSON вообще. В частности, тип jsonb
не принимает числа, выходящие за диапазон типа данных PostgreSQL numeric
, тогда как с json
такого ограничения нет. Такие ограничения, накладываемые реализацией, допускаются согласно RFC 7159. Однако, на практике такие проблемы более вероятны в других реализациях, так как обычно примитивный тип JSON number
представляется в виде числа с плавающей точкой двойной точности IEEE 754 (что RFC 7159 явно признаёт и допускает). При использовании JSON в качестве формата обмена данными с такими системами следует учитывать риски потери точности чисел, хранившихся в PostgreSQL.
И напротив, как показано в таблице, есть некоторые ограничения в формате ввода примитивных типов JSON, не актуальные для соответствующих типов PostgreSQL.
Таблица 8.23. Примитивные типы JSON и соответствующие им типы PostgreSQL
Примитивный тип JSON | Тип PostgreSQL | Замечания |
---|---|---|
string | text | \u0000 не допускается, как не ASCII символ, если кодировка базы данных не UTF8 |
number | numeric | Значения NaN и infinity не допускаются |
boolean | boolean | Допускаются только варианты true и false (в нижнем регистре) |
null | (нет) | NULL в SQL имеет другой смысл |
8.14.1. Синтаксис вводимых и выводимых значений JSON
Синтаксис ввода/вывода типов данных JSON соответствует стандарту RFC 7159.
Примеры допустимых выражений с типом json
(или jsonb
):
-- Простое скалярное/примитивное значение -- Простыми значениями могут быть числа, строки в кавычках, true, false или null SELECT '5'::json; -- Массив из нуля и более элементов (элементы могут быть разных типов) SELECT '[1, 2, "foo", null]'::json; -- Объект, содержащий пары ключей и значений -- Заметьте, что ключи объектов — это всегда строки в кавычках SELECT '{"bar": "baz", "balance": 7.77, "active": false}'::json; -- Массивы и объекты могут вкладываться произвольным образом SELECT '{"foo": [true, "bar"], "tags": {"a": 1, "b": null}}'::json;
Как было сказано ранее, когда значение JSON вводится и затем выводится без дополнительной обработки, тип json
выводит тот же текст, что поступил на вход, а jsonb
не сохраняет семантически незначащие детали, такие как пробелы. Например, посмотрите на эти различия:
SELECT '{"bar": "baz", "balance": 7.77, "active":false}'::json; json ------------------------------------------------- {"bar": "baz", "balance": 7.77, "active":false} (1 row) SELECT '{"bar": "baz", "balance": 7.77, "active":false}'::jsonb; jsonb -------------------------------------------------- {"bar": "baz", "active": false, "balance": 7.77} (1 row)
Первая семантически незначимая деталь, заслуживающая внимания: с jsonb
числа выводятся по правилам нижележащего типа numeric
. На практике это означает, что числа, заданные в записи с E
, будут выведены без неё, например:
SELECT '{"reading": 1.230e-5}'::json, '{"reading": 1.230e-5}'::jsonb; json | jsonb -----------------------+------------------------- {"reading": 1.230e-5} | {"reading": 0.00001230} (1 row)
Однако, как видно из этого примера, jsonb
сохраняет конечные нули дробного числа, хотя они и не имеют семантической значимости, в частности для проверки на равенство.
8.14.2. Эффективная организация документов JSON
Представлять данные в JSON можно гораздо более гибко, чем в традиционной реляционной модели данных, что очень привлекательно там, где нет жёстких условий. И оба этих подхода вполне могут сосуществовать и дополнять друг друга в одном приложении. Однако даже для приложений, которым нужна максимальная гибкость, рекомендуется, чтобы документы JSON имели некоторую фиксированную структуру. Эта структура обычно не навязывается жёстко (хотя можно декларативно диктовать некоторые бизнес-правила), но когда она предсказуема, становится гораздо проще писать запросы, которые извлекают полезные данные из набора «документов» (информации) в таблице.
Данные JSON, как и данные любых других типов, хранящиеся в таблицах, находятся под контролем механизма параллельного доступа. Хотя хранить большие документы вполне возможно, не забывайте, что при любом изменении устанавливается блокировка всей строки (на уровне строки). Поэтому для оптимизации блокировок транзакций, изменяющих данные, стоит ограничить размер документов JSON разумными пределами. В идеале каждый документ JSON должен собой представлять атомарный информационный блок, который, согласно бизнес-логике, нельзя разделить на меньшие, индивидуально изменяемые блоки.
8.14.3. Проверки на вхождение и существование jsonb
Проверка вхождения — важная особенность типа jsonb
, не имеющая аналога для типа json
. Эта проверка определяет, входит ли один документ jsonb
в другой. В следующих примерах возвращается истинное значение (кроме упомянутых исключений):
-- Простые скалярные/примитивные значения включают только одно идентичное значение:
SELECT '"foo"'::jsonb @> '"foo"'::jsonb;
-- Массив с правой стороны входит в массив слева:
SELECT '[1, 2, 3]'::jsonb @> '[1, 3]'::jsonb;
-- Порядок элементов в массиве не важен, поэтому это условие тоже выполняется:
SELECT '[1, 2, 3]'::jsonb @> '[3, 1]'::jsonb;
-- А повторяющиеся элементы массива не имеют значения:
SELECT '[1, 2, 3]'::jsonb @> '[1, 2, 2]'::jsonb;
-- Объект с одной парой справа входит в объект слева:
SELECT '{"product": "PostgreSQL", "version": 9.4, "jsonb": true}'::jsonb @> '{"version": 9.4}'::jsonb;
-- Массив справа не считается входящим в
-- массив слева, хотя в последний и вложен подобный массив:
SELECT '[1, 2, [1, 3]]'::jsonb @> '[1, 3]'::jsonb; -- выдаёт false
-- Но если добавить уровень вложенности, проверка на вхождение выполняется:
SELECT '[1, 2, [1, 3]]'::jsonb @> '[[1, 3]]'::jsonb;
-- Аналогично, это вхождением не считается:
SELECT '{"foo": {"bar": "baz"}}'::jsonb @> '{"bar": "baz"}'::jsonb; -- выдаёт false
-- Ключ с пустым объектом на верхнем уровне входит в объект с таким ключом:
SELECT '{"foo": {"bar": "baz"}}'::jsonb @> '{"foo": {}}'::jsonb;
Общий принцип этой проверки в том, что входящий объект должен соответствовать объекту, содержащему его, по структуре и данным, возможно, после исключения из содержащего объекта лишних элементов массива или пар ключ/значение. Но помните, что порядок элементов массива для проверки на вхождение не имеет значения, а повторяющиеся элементы массива считаются только один раз.
В качестве особого исключения для требования идентичности структур, массив может содержать примитивное значение:
-- В этот массив входит примитивное строковое значение: SELECT '["foo", "bar"]'::jsonb @> '"bar"'::jsonb; -- Это исключение действует только в одну сторону -- здесь вхождения нет: SELECT '"bar"'::jsonb @> '["bar"]'::jsonb; -- выдаёт false
Для типа jsonb
введён также оператор существования, который является вариацией на тему вхождения: он проверяет, является ли строка (заданная в виде значения text
) ключом объекта или элементом массива на верхнем уровне значения jsonb
. В следующих примерах возвращается истинное значение (кроме упомянутых исключений):
-- Строка существует в качестве элемента массива: SELECT '["foo", "bar", "baz"]'::jsonb ? 'bar'; -- Строка существует в качестве ключа объекта: SELECT '{"foo": "bar"}'::jsonb ? 'foo'; -- Значения объектов не рассматриваются: SELECT '{"foo": "bar"}'::jsonb ? 'bar'; -- выдаёт false -- Как и вхождение, существование определяется на верхнем уровне: SELECT '{"foo": {"bar": "baz"}}'::jsonb ? 'bar'; -- выдаёт false -- Строка считается существующей, если она соответствует примитивной строке JSON: SELECT '"foo"'::jsonb ? 'foo';
Объекты JSON для проверок на существование и вхождение со множеством ключей или элементов подходят больше, чем массивы, так как, в отличие от массивов, они внутри оптимизируются для поиска, и поиск элемента не будет линейным.
Подсказка
Так как вхождение в JSON проверяется с учётом вложенности, правильно написанный запрос может заменить явную выборку внутренних объектов. Например, предположим, что у нас есть столбец doc
, содержащий объекты на верхнем уровне, и большинство этих объектов содержит поля tags
с массивами вложенных объектов. Данный запрос найдёт записи, в которых вложенные объекты содержат ключи "term":"paris"
и "term":"food"
, и при этом пропустит такие ключи, находящиеся вне массива tags
:
SELECT doc->'site_name' FROM websites WHERE doc @> '{"tags":[{"term":"paris"}, {"term":"food"}]}';
Этого же результата можно добиться, например, так:
SELECT doc->'site_name' FROM websites WHERE doc->'tags' @> '[{"term":"paris"}, {"term":"food"}]';
Но данный подход менее гибкий и часто также менее эффективный.
С другой стороны, оператор существования JSON не учитывает вложенность: он будет искать заданный ключ или элемент массива только на верхнем уровне значения JSON.
Различные операторы вхождения и существования, а также все другие операторы и функции для работы с JSON документированы в Разделе 9.15.
8.14.4. Индексация jsonb
Для эффективного поиска ключей или пар ключ/значение в большом количестве документов jsonb
можно успешно применять индексы GIN. Для этого предоставляются два «класса операторов» GIN, предлагающие выбор между производительностью и гибкостью.
Класс операторов GIN по умолчанию для jsonb
поддерживает запросы с операторами существования ключа на верхнем уровне (?
, ?&
и ?|
) и оператором существования пути/значения (@>
). (Подробнее семантика, реализуемая этими операторами, описана в Таблице 9.41.) Пример создания индекса с этим классом операторов:
CREATE INDEX idxgin ON api USING GIN (jdoc);
Дополнительный класс операторов GIN jsonb_path_ops
поддерживает индексацию только для оператора @>
. Пример создания индекса с этим классом операторов:
CREATE INDEX idxginp ON api USING GIN (jdoc jsonb_path_ops);
Рассмотрим пример таблицы, в которой хранятся документы JSON, получаемые от сторонней веб-службы, с документированным определением схемы. Типичный документ:
{ "guid": "9c36adc1-7fb5-4d5b-83b4-90356a46061a", "name": "Angela Barton", "is_active": true, "company": "Magnafone", "address": "178 Howard Place, Gulf, Washington, 702", "registered": "2009-11-07T08:53:22 +08:00", "latitude": 19.793713, "longitude": 86.513373, "tags": [ "enim", "aliquip", "qui" ] }
Мы сохраняем эти документы в таблице api
, в столбце jdoc
типа jsonb
. Если по этому столбцу создаётся GIN-индекс, он может применяться в подобных запросах:
-- Найти документы, в которых ключ "company" имеет значение "Magnafone" SELECT jdoc->'guid', jdoc->'name' FROM api WHERE jdoc @> '{"company": "Magnafone"}';
Однако, в следующих запросах он не будет использоваться, потому что, несмотря на то, что оператор ?
— индексируемый, он применяется не к индексированному столбцу jdoc
непосредственно:
-- Найти документы, в которых ключ "tags" содержит ключ или элемент массива "qui" SELECT jdoc->'guid', jdoc->'name' FROM api WHERE jdoc -> 'tags' ? 'qui';
И всё же, правильно применяя индексы выражений, в этом запросе можно задействовать индекс. Если запрос определённых элементов в ключе "tags"
выполняется часто, вероятно стоит определить такой индекс:
CREATE INDEX idxgintags ON api USING GIN ((jdoc -> 'tags'));
Теперь предложение WHERE
jdoc -> 'tags' ? 'qui'
будет выполняться как применение индексируемого оператора ?
к индексируемому выражению jdoc -> 'tags'
. (Подробнее об индексах выражений можно узнать в Разделе 11.7.)
Ещё один подход к использованию проверок на существование:
-- Найти документы, в которых ключ "tags" содержит элемент массива "qui" SELECT jdoc->'guid', jdoc->'name' FROM api WHERE jdoc @> '{"tags": ["qui"]}';
Этот запрос может задействовать простой GIN-индекс по столбцу jdoc
. Но заметьте, что такой индекс будет хранить копии всех ключей и значений в поле jdoc
, тогда как индекс выражения из предыдущего примера хранит только данные внутри объекта с ключом tags
. Хотя подход с простым индексом гораздо более гибкий (так как он поддерживает запросы по любому ключу), индексы конкретных выражений скорее всего будут меньше и быстрее, чем простые индексы.
Класс операторов jsonb_path_ops
поддерживает только запросы с оператором @>
, но зато он значительно производительнее класса по умолчанию jsonb_ops
. Индекс jsonb_path_ops
обычно гораздо меньше индекса jsonb_ops
для тех же данных и более точен при поиске, особенно если запросы обращаются к ключам, часто встречающимся в данных. Таким образом, с ним операции поиска выполняются гораздо лучше, чем с классом операторов по умолчанию.
Техническое различие между GIN-индексами jsonb_ops
и jsonb_path_ops
состоит в том, что для первых создаются независимые элементы индекса для каждого ключа/значения в данных, тогда как для вторых создаются элементы только для значений. [6] По сути, каждый элемент индекса jsonb_path_ops
представляет собой хеш значения и ключа(ей), приводящего к нему; например, при индексации {"foo": {"bar": "baz"}}
будет создан один элемент индекса с хешем, рассчитанным по всем трём значениям: foo
, bar
и baz
. Таким образом, проверка на вхождение этой структуры будет использовать крайне точный поиск по индексу, но определить, является ли foo
ключом, с помощью такого индекса нельзя. С другой стороны, индекс jsonb_ops
создаст три отдельных элемента индекса, представляющих foo
, bar
и baz
по отдельности; для выполнения проверки на вхождение будут проверены строки таблицы, содержащие все эти три значения. Хотя GIN-индексы позволяют вычислить AND довольно эффективно, такой поиск всё же будет менее точным и более медленным, чем равнозначный поиск с jsonb_path_ops
, особенно если любое одно из этих трёх значений содержится в большом количестве строк.
Недостаток класса jsonb_path_ops
заключается в том, что он не учитывает в индексе структуры JSON, не содержащие никаких значений {"a": {}}
. Для поиска по документам, содержащих такие структуры, потребуется выполнить полное сканирование индекса, что довольно долго, поэтому jsonb_path_ops
не очень подходит для приложений, часто выполняющих такие запросы.
Тип jsonb
также поддерживает индексы btree
и hash
. Они полезны, только если требуется проверять равенство JSON-документов в целом. Порядок сортировки btree
для типа jsonb
редко имеет большое значение, но для полноты он приводится ниже:
Объект
>Массив
>Логическое значение
>Число
>Строка
>Null
Объект с n парами
>Объект с n - 1 парами
Массив с n элементами
>Массив с n - 1 элементами
Объекты с равным количеством пар сравниваются в таком порядке:
ключ-1
,значение-1
,ключ-2
...
Заметьте, что ключи объектов сравниваются согласно порядку при хранении; в частности, из-за того, что короткие ключи хранятся перед длинными, результаты могут оказаться несколько не интуитивными:
{ "aa": 1, "c": 1} > {"b": 1, "d": 1}
Массивы с равным числом элементом упорядочиваются аналогично:
элемент-1
,элемент-2
...
Примитивные значения JSON сравниваются по тем же правилам сравнения, что и нижележащие типы данных PostgreSQL. Строки сравниваются с учётом порядка сортировки по умолчанию в текущей базе данных.
[6] Поэтому понятие «значение» включает и элементы массивов, хотя в терминологии JSON иногда элементы массивов считаются отличными от значений внутри объектов.
43.3. Built-in Functions
43.3.1. Database Access from PL/Perl
Access to the database itself from your Perl function can be done via the following functions:
-
spi_exec_query
(query
[,limit
]) spi_exec_query
executes an SQL command and returns the entire row set as a reference to an array of hash references. Iflimit
is specified and is greater than zero, thenspi_exec_query
retrieves at mostlimit
rows, much as if the query included aLIMIT
clause. Omittinglimit
or specifying it as zero results in no row limit.You should only use this command when you know that the result set will be relatively small. Here is an example of a query (
SELECT
command) with the optional maximum number of rows:$rv = spi_exec_query('SELECT * FROM my_table', 5);
This returns up to 5 rows from the table
my_table
. Ifmy_table
has a columnmy_column
, you can get that value from row$i
of the result like this:$foo = $rv->{rows}[$i]->{my_column};
The total number of rows returned from a
SELECT
query can be accessed like this:$nrows = $rv->{processed}
Here is an example using a different command type:
$query = "INSERT INTO my_table VALUES (1, 'test')"; $rv = spi_exec_query($query);
You can then access the command status (e.g.,
SPI_OK_INSERT
) like this:$res = $rv->{status};
To get the number of rows affected, do:
$nrows = $rv->{processed};
Here is a complete example:
CREATE TABLE test ( i int, v varchar ); INSERT INTO test (i, v) VALUES (1, 'first line'); INSERT INTO test (i, v) VALUES (2, 'second line'); INSERT INTO test (i, v) VALUES (3, 'third line'); INSERT INTO test (i, v) VALUES (4, 'immortal'); CREATE OR REPLACE FUNCTION test_munge() RETURNS SETOF test AS $$ my $rv = spi_exec_query('select i, v from test;'); my $status = $rv->{status}; my $nrows = $rv->{processed}; foreach my $rn (0 .. $nrows - 1) { my $row = $rv->{rows}[$rn]; $row->{i} += 200 if defined($row->{i}); $row->{v} =~ tr/A-Za-z/a-zA-Z/ if (defined($row->{v})); return_next($row); } return undef; $$ LANGUAGE plperl; SELECT * FROM test_munge();
-
spi_query(
command
)
spi_fetchrow(
cursor
)
spi_cursor_close(
cursor
) spi_query
andspi_fetchrow
work together as a pair for row sets which might be large, or for cases where you wish to return rows as they arrive.spi_fetchrow
works only withspi_query
. The following example illustrates how you use them together:CREATE TYPE foo_type AS (the_num INTEGER, the_text TEXT); CREATE OR REPLACE FUNCTION lotsa_md5 (INTEGER) RETURNS SETOF foo_type AS $$ use Digest::MD5 qw(md5_hex); my $file = '/usr/share/dict/words'; my $t = localtime; elog(NOTICE, "opening file $file at $t" ); open my $fh, '<', $file # ooh, it's a file access! or elog(ERROR, "cannot open $file for reading: $!"); my @words = <$fh>; close $fh; $t = localtime; elog(NOTICE, "closed file $file at $t"); chomp(@words); my $row; my $sth = spi_query("SELECT * FROM generate_series(1,$_[0]) AS b(a)"); while (defined ($row = spi_fetchrow($sth))) { return_next({ the_num => $row->{a}, the_text => md5_hex($words[rand @words]) }); } return; $$ LANGUAGE plperlu; SELECT * from lotsa_md5(500);
Normally,
spi_fetchrow
should be repeated until it returnsundef
, indicating that there are no more rows to read. The cursor returned byspi_query
is automatically freed whenspi_fetchrow
returnsundef
. If you do not wish to read all the rows, instead callspi_cursor_close
to free the cursor. Failure to do so will result in memory leaks.-
spi_prepare(
command
,argument types
)
spi_query_prepared(
plan
,arguments
)
spi_exec_prepared(
plan
[,attributes
],arguments
)
spi_freeplan(
plan
) spi_prepare
,spi_query_prepared
,spi_exec_prepared
, andspi_freeplan
implement the same functionality but for prepared queries.spi_prepare
accepts a query string with numbered argument placeholders ($1, $2, etc) and a string list of argument types:$plan = spi_prepare('SELECT * FROM test WHERE id > $1 AND name = $2', 'INTEGER', 'TEXT');
Once a query plan is prepared by a call to
spi_prepare
, the plan can be used instead of the string query, either inspi_exec_prepared
, where the result is the same as returned byspi_exec_query
, or inspi_query_prepared
which returns a cursor exactly asspi_query
does, which can be later passed tospi_fetchrow
. The optional second parameter tospi_exec_prepared
is a hash reference of attributes; the only attribute currently supported islimit
, which sets the maximum number of rows returned from the query. Omittinglimit
or specifying it as zero results in no row limit.The advantage of prepared queries is that is it possible to use one prepared plan for more than one query execution. After the plan is not needed anymore, it can be freed with
spi_freeplan
:CREATE OR REPLACE FUNCTION init() RETURNS VOID AS $$ $_SHARED{my_plan} = spi_prepare('SELECT (now() + $1)::date AS now', 'INTERVAL'); $$ LANGUAGE plperl; CREATE OR REPLACE FUNCTION add_time( INTERVAL ) RETURNS TEXT AS $$ return spi_exec_prepared( $_SHARED{my_plan}, $_[0] )->{rows}->[0]->{now}; $$ LANGUAGE plperl; CREATE OR REPLACE FUNCTION done() RETURNS VOID AS $$ spi_freeplan( $_SHARED{my_plan}); undef $_SHARED{my_plan}; $$ LANGUAGE plperl; SELECT init(); SELECT add_time('1 day'), add_time('2 days'), add_time('3 days'); SELECT done(); add_time | add_time | add_time ------------+------------+------------ 2005-12-10 | 2005-12-11 | 2005-12-12
Note that the parameter subscript in
spi_prepare
is defined via $1, $2, $3, etc, so avoid declaring query strings in double quotes that might easily lead to hard-to-catch bugs.Another example illustrates usage of an optional parameter in
spi_exec_prepared
:CREATE TABLE hosts AS SELECT id, ('192.168.1.'||id)::inet AS address FROM generate_series(1,3) AS id; CREATE OR REPLACE FUNCTION init_hosts_query() RETURNS VOID AS $$ $_SHARED{plan} = spi_prepare('SELECT * FROM hosts WHERE address << $1', 'inet'); $$ LANGUAGE plperl; CREATE OR REPLACE FUNCTION query_hosts(inet) RETURNS SETOF hosts AS $$ return spi_exec_prepared( $_SHARED{plan}, {limit => 2}, $_[0] )->{rows}; $$ LANGUAGE plperl; CREATE OR REPLACE FUNCTION release_hosts_query() RETURNS VOID AS $$ spi_freeplan($_SHARED{plan}); undef $_SHARED{plan}; $$ LANGUAGE plperl; SELECT init_hosts_query(); SELECT query_hosts('192.168.1.0/30'); SELECT release_hosts_query(); query_hosts ----------------- (1,192.168.1.1) (2,192.168.1.2) (2 rows)
-
spi_commit()
spi_rollback()
Commit or roll back the current transaction. This can only be called in a procedure or anonymous code block (
DO
command) called from the top level. (Note that it is not possible to run the SQL commandsCOMMIT
orROLLBACK
viaspi_exec_query
or similar. It has to be done using these functions.) After a transaction is ended, a new transaction is automatically started, so there is no separate function for that.Here is an example:
CREATE PROCEDURE transaction_test1() LANGUAGE plperl AS $$ foreach my $i (0..9) { spi_exec_query("INSERT INTO test1 (a) VALUES ($i)"); if ($i % 2 == 0) { spi_commit(); } else { spi_rollback(); } } $$; CALL transaction_test1();
43.3.2. Utility Functions in PL/Perl
-
elog(
level
,msg
) Emit a log or error message. Possible levels are
DEBUG
,LOG
,INFO
,NOTICE
,WARNING
, andERROR
.ERROR
raises an error condition; if this is not trapped by the surrounding Perl code, the error propagates out to the calling query, causing the current transaction or subtransaction to be aborted. This is effectively the same as the Perldie
command. The other levels only generate messages of different priority levels. Whether messages of a particular priority are reported to the client, written to the server log, or both is controlled by the log_min_messages and client_min_messages configuration variables. See Chapter 18 for more information.-
quote_literal(
string
) Return the given string suitably quoted to be used as a string literal in an SQL statement string. Embedded single-quotes and backslashes are properly doubled. Note that
quote_literal
returns undef on undef input; if the argument might be undef,quote_nullable
is often more suitable.-
quote_nullable(
string
) Return the given string suitably quoted to be used as a string literal in an SQL statement string; or, if the argument is undef, return the unquoted string "NULL". Embedded single-quotes and backslashes are properly doubled.
-
quote_ident(
string
) Return the given string suitably quoted to be used as an identifier in an SQL statement string. Quotes are added only if necessary (i.e., if the string contains non-identifier characters or would be case-folded). Embedded quotes are properly doubled.
-
decode_bytea(
string
) Return the unescaped binary data represented by the contents of the given string, which should be
bytea
encoded.-
encode_bytea(
string
) Return the
bytea
encoded form of the binary data contents of the given string.-
encode_array_literal(
array
)
encode_array_literal(
array
,delimiter
) Returns the contents of the referenced array as a string in array literal format (see Section 8.15.2). Returns the argument value unaltered if it's not a reference to an array. The delimiter used between elements of the array literal defaults to "
,
" if a delimiter is not specified or is undef.-
encode_typed_literal(
value
,typename
) Converts a Perl variable to the value of the data type passed as a second argument and returns a string representation of this value. Correctly handles nested arrays and values of composite types.
-
encode_array_constructor(
array
) Returns the contents of the referenced array as a string in array constructor format (see Section 4.2.12). Individual values are quoted using
quote_nullable
. Returns the argument value, quoted usingquote_nullable
, if it's not a reference to an array.-
looks_like_number(
string
) Returns a true value if the content of the given string looks like a number, according to Perl, returns false otherwise. Returns undef if the argument is undef. Leading and trailing space is ignored.
Inf
andInfinity
are regarded as numbers.-
is_array_ref(
argument
) Returns a true value if the given argument may be treated as an array reference, that is, if ref of the argument is
ARRAY
orPostgreSQL::InServer::ARRAY
. Returns false otherwise.