Важно: Данный раздел актуален для Платформы данных в Публичном облаке и On-Premise.
RT.WideStore может принимать (INSERT
) и отдавать (SELECT
) данные в различных форматах.
Поддерживаемые форматы и возможность использовать их в запросах INSERT
и SELECT
перечислены в таблице ниже.
Вы можете регулировать некоторые параметры работы с форматами с помощью настроек RT.WideStore. За дополнительной информацией обращайтесь к разделу Настройки.
В TabSeparated формате данные пишутся по строкам. Каждая строчка содержит значения, разделённые табами. После каждого значения идёт таб, кроме последнего значения в строке, после которого идёт перевод строки. Везде подразумеваются исключительно unix-переводы строк. Последняя строка также обязана содержать перевод строки на конце. Значения пишутся в текстовом виде, без обрамляющих кавычек, с экранированием служебных символов.
Этот формат также доступен под именем TSV
.
Формат TabSeparated
удобен для обработки данных произвольными программами и скриптами. Он используется по умолчанию в HTTP-интерфейсе, а также в batch-режиме клиента командной строки. Также формат позволяет переносить данные между разными СУБД. Например, вы можете получить дамп из MySQL и загрузить его в RT.WideStore, или наоборот.
Формат TabSeparated
поддерживает вывод тотальных значений (при использовании WITH TOTALS) и экстремальных значений (при настройке extremes выставленной в 1). В этих случаях, после основных данных выводятся тотальные значения, и экстремальные значения. Основной результат, тотальные значения и экстремальные значения, отделяются друг от друга пустой строкой. Пример:
SELECT EventDate, count() AS c FROM test.hits GROUP BY EventDate WITH TOTALS ORDER BY EventDate FORMAT TabSeparated
2014-03-17 1406958
2014-03-18 1383658
2014-03-19 1405797
2014-03-20 1353623
2014-03-21 1245779
2014-03-22 1031592
2014-03-23 1046491
1970-01-01 8873898
2014-03-17 1031592
2014-03-23 1406958
Целые числа пишутся в десятичной форме. Числа могут содержать лишний символ «+» в начале (игнорируется при парсинге, а при форматировании не пишется). Неотрицательные числа не могут содержать знак отрицания. При чтении допустим парсинг пустой строки, как числа ноль, или (для знаковых типов) строки, состоящей из одного минуса, как числа ноль. Числа, не помещающиеся в соответствующий тип данных, могут парсится, как некоторое другое число, без сообщения об ошибке.
Числа с плавающей запятой пишутся в десятичной форме. При этом, десятичный разделитель - точка. Поддерживается экспоненциальная запись, а также inf, +inf, -inf, nan. Запись числа с плавающей запятой может начинаться или заканчиваться на десятичную точку. При форматировании возможна потеря точности чисел с плавающей запятой. При парсинге, допустимо чтение не обязательно наиболее близкого к десятичной записи машинно-представимого числа.
Даты выводятся в формате YYYY-MM-DD, парсятся в том же формате, но с любыми символами в качестве разделителей. Даты-с-временем выводятся в формате YYYY-MM-DD hh:mm:ss, парсятся в том же формате, но с любыми символами в качестве разделителей. Всё это происходит в системном часовом поясе на момент старта клиента (если клиент занимается форматированием данных) или сервера. Для дат-с-временем не указывается, действует ли daylight saving time. То есть, если в дампе есть времена во время перевода стрелок назад, то дамп не соответствует данным однозначно, и при парсинге будет выбрано какое-либо из двух времён. При парсинге, некорректные даты и даты-с-временем могут парситься с естественным переполнением или как нулевые даты/даты-с-временем без сообщения об ошибке.
В качестве исключения, поддерживается также парсинг даты-с-временем в формате unix timestamp, если он состоит ровно из 10 десятичных цифр. Результат не зависит от часового пояса. Различение форматов YYYY-MM-DD hh:mm:ss и NNNNNNNNNN делается автоматически.
Строки выводятся с экранированием спецсимволов с помощью обратного слеша. При выводе, используются следующие escape-последовательности: \b
, \f
, \r
, \n
, \t
, \0
, \'
, \\
. Парсер также поддерживает последовательности \a
, \v
, и \xHH
(последовательности hex escape) и любые последовательности вида \c
, где c
— любой символ (такие последовательности преобразуются в c
). Таким образом, при чтении поддерживаются форматы, где перевод строки может быть записан как \n
и как \
и перевод строки. Например, строка Hello world
, где между словами вместо пробела стоит перевод строки, может быть считана в любом из следующих вариантов:
Hello\nworld
Hello\
world
Второй вариант поддерживается, так как его использует MySQL при записи tab-separated дампа.
Минимальный набор символов, которых вам необходимо экранировать при передаче в TabSeparated формате: таб, перевод строки (LF) и обратный слеш.
Экранируется лишь небольшой набор символов. Вы можете легко наткнуться на строковое значение, которое испортит ваш терминал при выводе в него.
Массивы форматируются в виде списка значений через запятую в квадратных скобках. Элементы массива - числа форматируются как обычно, а даты, даты-с-временем и строки - в одинарных кавычках с такими же правилами экранирования, как указано выше.
NULL форматируется как \N
.
Каждый элемент структуры типа Nested представляется как отдельный массив.
Входящие параметры типа "перечисление" (ENUM
) могут передаваться в виде значений или порядковых номеров. Сначала переданное значение будет сопоставляться с элементами перечисления. Если совпадение не будет найдено и при этом переданное значение является числом, оно будет трактоваться как порядковый номер в перечислении. Если входящие параметры типа ENUM
содержат только порядковые номера, рекомендуется включить настройку input_format_tsv_enum_as_number для ускорения парсинга.
Например:
CREATE TABLE nestedt
(
`id` UInt8,
`aux` Nested(
a UInt8,
b String
)
)
ENGINE = TinyLog
INSERT INTO nestedt Values ( 1, [1], ['a'])
SELECT * FROM nestedt FORMAT TSV
1 [1] ['a']
Отличается от формата TabSeparated
тем, что строки выводятся без экранирования. Используя этот формат, следите, чтобы в полях не было символов табуляции или разрыва строки.
Этот формат также доступен под именем TSVRaw
.
Отличается от формата TabSeparated
тем, что в первой строке пишутся имена столбцов.
При парсинге первая строка должна содержать имена столбцов. Вы можете использовать имена столбцов, чтобы указать их порядок расположения, или чтобы проверить их корректность.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена.
Этот формат также доступен под именем TSVWithNames
.
Отличается от формата TabSeparated
тем, что в первой строке пишутся имена столбцов, а во второй - типы столбцов. При парсинге, первая и вторая строка полностью игнорируется.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена. Если включен параметр input_format_with_types_use_header, типы из входных данных будут сравниваться с типами соответствующих столбцов из таблицы. В противном случае вторая строка будет пропущена.
Этот формат также доступен под именем TSVWithNamesAndTypes
.
Этот формат позволяет указать произвольную форматную строку, в которую подставляются значения, сериализованные выбранным способом.
Для этого используются настройки format_template_resultset
, format_template_row
, format_template_rows_between_delimiter
и настройки экранирования других форматов (например, output_format_json_quote_64bit_integers
при экранировании как в JSON
, см. далее)
Настройка format_template_row
задаёт путь к файлу, содержащему форматную строку для строк таблицы, которая должна иметь вид:
delimiter_1${column_1:serializeAs_1}delimiter_2${column_2:serializeAs_2} ... delimiter_N
,
где `delimiter_i` - разделители между значениями (символ `$` в разделителе экранируется как `$$`),
`column_i` - имена или номера столбцов, значения которых должны быть выведены или считаны (если имя не указано - столбец пропускается),
`serializeAs_i` - тип экранирования для значений соответствующего столбца. Поддерживаются следующие типы экранирования:
- `CSV`, `JSON`, `XML` (как в одноимённых форматах)
- `Escaped` (как в `TSV`)- `Quoted` (как в `Values`)
- `Raw` (без экранирования, как в `TSVRaw`)
- `None` (тип экранирования отсутствует, см. далее)
Если для столбца не указан тип экранирования, используется `None`. `XML` и `Raw` поддерживаются только для вывода.
Так, в форматной строке
`Search phrase: ${SearchPhrase:Quoted}, count: ${c:Escaped}, ad price: $$${price:JSON};
`
между разделителями `Search phrase: `, `, count: `, `, ad price: $` и `;` при выводе будут подставлены
(при вводе - будут ожидаться) значения столбцов `SearchPhrase`, `c` и `price`, сериализованные как `Quoted`,
`Escaped` и `JSON` соответственно, например:
`Search phrase: 'bathroom interior design', count: 2166, ad price: $3;`
Настройка format_template_rows_between_delimiter
задаёт разделитель между строками, который выводится (или ожмдается при вводе) после каждой строки, кроме последней. По умолчанию \n
.
Настройка format_template_resultset
задаёт путь к файлу, содержащему форматную строку для результата. Форматная строка для результата имеет синтаксис аналогичный форматной строке для строк таблицы и позволяет указать префикс, суффикс и способ вывода дополнительной информации. Вместо имён столбцов в ней указываются следующие имена подстановок:
data
- строки с данными в формате format_template_row
, разделённые format_template_rows_between_delimiter
. Эта подстановка должна быть первой подстановкой в форматной строке.totals
- строка с тотальными значениями в формате format_template_row
(при использовании WITH TOTALS)min
- строка с минимальными значениями в формате format_template_row
(при настройке extremes, выставленной в 1)max
- строка с максимальными значениями в формате format_template_row
(при настройке extremes, выставленной в 1)rows
- общее количество выведенных стрчекrows_before_limit
- не менее скольких строчек получилось бы, если бы не было LIMIT-а. Выводится только если запрос содержит LIMIT. В случае, если запрос содержит GROUP BY, rows_before_limit
- точное число строк, которое получилось бы, если бы не было LIMIT-а.time
- время выполнения запроса в секундахrows_read
- сколько строк было прочитано при выполнении запросаbytes_read
- сколько байт (несжатых) было прочитано при выполнении запросаУ подстановок data
, totals
, min
и max
не должны быть указаны типы экранирования (или должен быть указан None
). Остальные подстановки - это отдельные значения, для них может быть указан любой тип экранирования. Если строка format_template_resultset
пустая, то по-умолчанию используется ${data}
. Из всех перечисленных подстановок форматная строка format_template_resultset
для ввода может содержать только data
. Также при вводе формат поддерживает пропуск значений столбцов и пропуск значений в префиксе и суффиксе (см. пример).
Пример вывода:
SELECT SearchPhrase, count() AS c FROM test.hits GROUP BY SearchPhrase ORDER BY c DESC LIMIT 5 FORMAT Template SETTINGS
format_template_resultset = '/some/path/resultset.format', format_template_row = '/some/path/row.format', format_template_rows_between_delimiter = '\n '
/some/path/resultset.format
:
<!DOCTYPE HTML>
<html> <head> <title>Search phrases</title> </head>
<body>
<table border="1"> <caption>Search phrases</caption>
<tr> <th>Search phrase</th> <th>Count</th> </tr>
${data}
</table>
<table border="1"> <caption>Max</caption>
${max}
</table>
<b>Processed ${rows_read:XML} rows in ${time:XML} sec</b>
</body>
</html>
/some/path/row.format
:
<tr> <td>${0:XML}</td> <td>${1:XML}</td> </tr>
Результат:
<!DOCTYPE HTML>
<html> <head> <title>Search phrases</title> </head>
<body>
<table border="1"> <caption>Search phrases</caption>
<tr> <th>Search phrase</th> <th>Count</th> </tr>
<tr> <td></td> <td>8267016</td> </tr>
<tr> <td>bathroom interior design</td> <td>2166</td> </tr>
<tr> <td>yandex</td> <td>1655</td> </tr>
<tr> <td>spring 2014 fashion</td> <td>1549</td> </tr>
<tr> <td>freeform photos</td> <td>1480</td> </tr>
</table>
<table border="1"> <caption>Max</caption>
<tr> <td></td> <td>8873898</td> </tr>
</table>
<b>Processed 3095973 rows in 0.1569913 sec</b>
</body>
</html>
Пример ввода:
Some header
Page views: 5, User id: 4324182021466249494, Useless field: hello, Duration: 146, Sign: -1
Page views: 6, User id: 4324182021466249494, Useless field: world, Duration: 185, Sign: 1
Total rows: 2
INSERT INTO UserActivity FORMAT Template SETTINGS
format_template_resultset = '/some/path/resultset.format', format_template_row = '/some/path/row.format'
/some/path/resultset.format
:
Some header\n${data}\nTotal rows: ${:CSV}\n
/some/path/row.format
:
Page views: ${PageViews:CSV}, User id: ${UserID:CSV}, Useless field: ${:CSV}, Duration: ${Duration:CSV}, Sign: ${Sign:CSV}
PageViews
, UserID
, Duration
и Sign
внутри подстановок - имена столбцов в таблице, в которую вставляются данные. Значения после Useless field
в строках и значение после \nTotal rows:
в суффиксе будут проигнорированы. Все разделители во входных данных должны строго соответствовать разделителям в форматных строках.
Подходит только для ввода. Отличается от формата Template
тем, что пропускает пробельные символы между разделителями и значениями во входном потоке. Также в этом формате можно указать пустые подстановки с типом экранирования None
(${}
или ${:None}
), чтобы разбить разделители на несколько частей, пробелы между которыми должны игнорироваться. Такие подстановки используются только для пропуска пробелов. С помощью этого формата можно считывать JSON
, если значения столбцов в нём всегда идут в одном порядке в каждой строке. Например, для вставки данных из примера вывода формата JSON в таблицу со столбцами phrase
и cnt
можно использовать следующий запрос:
INSERT INTO table_name FORMAT TemplateIgnoreSpaces SETTINGS
format_schema = '{${}"meta"${}:${:JSON},${}"data"${}:${}[${data}]${},${}"totals"${}:${:JSON},${}"extremes"${}:${:JSON},${}"rows"${}:${:JSON},${}"rows_before_limit_at_least"${}:${:JSON}${}}',
format_schema_rows = '{${}"SearchPhrase"${}:${}${phrase:JSON}${},${}"c"${}:${}${cnt:JSON}${}}',
format_schema_rows_between_delimiter = ','
Похож на TabSeparated, но выводит значения в формате name=value. Имена экранируются так же, как строки в формате TabSeparated и, дополнительно, экранируется также символ =.
SearchPhrase= count()=8267016
SearchPhrase=интерьер ванной комнаты count()=2166
SearchPhrase=яндекс count()=1655
SearchPhrase=весна 2014 мода count()=1549
SearchPhrase=фриформ фото count()=1480
SearchPhrase=анджелина джоли count()=1245
SearchPhrase=омск count()=1112
SearchPhrase=фото собак разных пород count()=1091
SearchPhrase=дизайн штор count()=1064
SearchPhrase=баку count()=1000
NULL форматируется как \N
.
SELECT * FROM t_null FORMAT TSKV
x=1 y=\N
При большом количестве маленьких столбцов, этот формат существенно неэффективен, и обычно нет причин его использовать. Впрочем, он не хуже формата JSONEachRow по производительности.
Поддерживается как вывод, так и парсинг данных в этом формате. При парсинге, поддерживается расположение значений разных столбцов в произвольном порядке. Допустимо отсутствие некоторых значений - тогда они воспринимаются как равные значениям по умолчанию. В этом случае в качестве значений по умолчанию используются нули и пустые строки. Сложные значения, которые могут быть заданы в таблице не поддерживаются как значения по умолчанию.
При парсинге, в качестве дополнительного поля, может присутствовать tskv
без знака равенства и без значения. Это поле игнорируется.
Формат Comma Separated Values (RFC).
При форматировании, строки выводятся в двойных кавычках. Двойная кавычка внутри строки выводится как две двойные кавычки подряд. Других правил экранирования нет. Даты и даты-с-временем выводятся в двойных кавычках. Числа выводятся без кавычек. Значения разделяются символом-разделителем, по умолчанию — ,
. Символ-разделитель определяется настройкой format_csv_delimiter. Строки разделяются unix переводом строки (LF). Массивы сериализуются в CSV следующим образом: сначала массив сериализуется в строку, как в формате TabSeparated, а затем полученная строка выводится в CSV в двойных кавычках. Кортежи в формате CSV сериализуются, как отдельные столбцы (то есть, теряется их вложенность в кортеж).
$ clickhouse-client --format_csv_delimiter="|" --query="INSERT INTO test.csv FORMAT CSV" < data.csv
*По умолчанию — ,
. См. настройку format_csv_delimiter для дополнительной информации.
При парсинге, все значения могут парситься как в кавычках, так и без кавычек. Поддерживаются как двойные, так и одинарные кавычки. Строки также могут быть без кавычек. В этом случае они парсятся до символа-разделителя или перевода строки (CR или LF). В нарушение RFC, в случае парсинга строк не в кавычках, начальные и конечные пробелы и табы игнорируются. В качестве перевода строки, поддерживаются как Unix (LF), так и Windows (CR LF) и Mac OS Classic (LF CR) варианты.
NULL
форматируется в виде \N
или NULL
или пустой неэкранированной строки (см. настройки input_format_csv_unquoted_null_literal_as_null и input_format_defaults_for_omitted_fields).
Если установлена настройка input_format_defaults_for_omitted_fields = 1 и тип столбца не Nullable(T)
, то пустые значения без кавычек заменяются значениями по умолчанию для типа данных столбца.
Входящие параметры типа "перечисление" (ENUM
) могут передаваться в виде значений или порядковых номеров. Сначала переданное значение будет сопоставляться с элементами перечисления. Если совпадение не будет найдено и при этом переданное значение является числом, оно будет трактоваться как порядковый номер в перечислении. Если входящие параметры типа ENUM
содержат только порядковые номера, рекомендуется включить настройку input_format_tsv_enum_as_number для ускорения парсинга.
Формат CSV поддерживает вывод totals и extremes аналогично TabSeparated
.
Выводит также заголовок, аналогично TabSeparatedWithNames.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена.
В первой строке пишутся имена столбцов, а во второй - типы столбцов, аналогично TabSeparatedWithNamesAndTypes
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена. Если включен параметр input_format_with_types_use_header, типы из входных данных будут сравниваться с типами соответствующих столбцов из таблицы. В противном случае вторая строка будет пропущена.
Аналогичен Template, но выводит (или считывает) все имена и типы столбцов, используя для них правило экранирования из настройки format_custom_escaping_rule и разделители из настроек format_custom_field_delimiter, format_custom_row_before_delimiter, format_custom_row_after_delimiter, format_custom_row_between_delimiter, format_custom_result_before_delimiter и format_custom_result_after_delimiter, а не из форматных строк.
Также существует формат CustomSeparatedIgnoreSpaces
, аналогичный формату TemplateIgnoreSpaces.
Выводит также заголовок с именами столбцов, аналогичен формату TabSeparatedWithNames.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена.
Выводит также два заголовка с именами и типами столбцов, аналогичен формату TabSeparatedWithNamesAndTypes.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена. Если включен параметр input_format_with_types_use_header, типы из входных данных будут сравниваться с типами соответствующих столбцов из таблицы. В противном случае вторая строка будет пропущена.
Выводит данные в формате JSON. Кроме таблицы с данными, также выводятся имена и типы столбцов, и некоторая дополнительная информация - общее количество выведенных строк, а также количество строк, которое могло бы быть выведено, если бы не было LIMIT-а. Пример:
SELECT SearchPhrase, count() AS c FROM test.hits GROUP BY SearchPhrase WITH TOTALS ORDER BY c DESC LIMIT 5 FORMAT JSON
{
"meta":
[
{
"name": "'hello'",
"type": "String"
},
{
"name": "multiply(42, number)",
"type": "UInt64"
},
{
"name": "range(5)",
"type": "Array(UInt8)"
}
],
"data":
[
{
"'hello'": "hello",
"multiply(42, number)": "0",
"range(5)": [0,1,2,3,4]
},
{
"'hello'": "hello",
"multiply(42, number)": "42",
"range(5)": [0,1,2,3,4]
},
{
"'hello'": "hello",
"multiply(42, number)": "84",
"range(5)": [0,1,2,3,4]
}
],
"rows": 3,
"rows_before_limit_at_least": 3
}
JSON совместим с JavaScript. Для этого, дополнительно экранируются некоторые символы: символ прямого слеша /
экранируется в виде \/
; альтернативные переводы строк U+2028
, U+2029
, на которых ломаются некоторые браузеры, экранируются в виде \uXXXX
-последовательностей. Экранируются ASCII control characters: backspace, form feed, line feed, carriage return, horizontal tab в виде \b
, \f
, \n
, \r
, \t
соответственно, а также остальные байты из диапазона 00-1F с помощью \uXXXX
-последовательностей. Невалидные UTF-8 последовательности заменяются на replacement character � и, таким образом, выводимый текст будет состоять из валидных UTF-8 последовательностей. Числа типа UInt64 и Int64, для совместимости с JavaScript, по умолчанию выводятся в двойных кавычках. Чтобы они выводились без кавычек, можно установить конфигурационный параметр output_format_json_quote_64bit_integers равным 0.
rows
- общее количество выведенных строчек.
rows_before_limit_at_least
- не менее скольких строчек получилось бы, если бы не было LIMIT-а. Выводится только если запрос содержит LIMIT. В случае, если запрос содержит GROUP BY, rows_before_limit_at_least - точное число строк, которое получилось бы, если бы не было LIMIT-а.
totals
- тотальные значения (при использовании WITH TOTALS).
extremes
- экстремальные значения (при настройке extremes, выставленной в 1).
Этот формат подходит только для вывода результата выполнения запроса, но не для парсинга (приёма данных для вставки в таблицу).
RT.WideStore поддерживает NULL, который при выводе JSON будет отображен как null
. Чтобы включить отображение в результате значений +nan
, -nan
, +inf
, -inf
, установите параметр output_format_json_quote_denormals равным 1.
Смотрите также:
Отличается от JSON только тем, что поля данных выводятся в строках, а не в типизированных значениях JSON.
Пример:
{
"meta":
[
{
"name": "'hello'",
"type": "String"
},
{
"name": "multiply(42, number)",
"type": "UInt64"
},
{
"name": "range(5)",
"type": "Array(UInt8)"
}
],
"data":
[
{
"'hello'": "hello",
"multiply(42, number)": "0",
"range(5)": "[0,1,2,3,4]"
},
{
"'hello'": "hello",
"multiply(42, number)": "42",
"range(5)": "[0,1,2,3,4]"
},
{
"'hello'": "hello",
"multiply(42, number)": "84",
"range(5)": "[0,1,2,3,4]"
}
],
"rows": 3,
"rows_before_limit_at_least": 3
}
В этом формате один объект JSON интерпретируется как одно строковое значение. Если входные данные имеют несколько объектов JSON, разделенных запятой, то они интерпретируются как отдельные строки таблицы. Если входные данные заключены в квадратные скобки, они интерпретируются как массив JSON-объектов.
В этом формате парситься может только таблица с единственным полем типа String. Остальные столбцы должны быть заданы как DEFAULT
или MATERIALIZED
(смотрите раздел Значения по умолчанию), либо отсутствовать. Для дальнейшей обработки объекта JSON, представленного в строке, вы можете использовать функции для работы с JSON.
Пример:
Запрос:
DROP TABLE IF EXISTS json_as_string;
CREATE TABLE json_as_string (json String) ENGINE = Memory;
INSERT INTO json_as_string (json) FORMAT JSONAsString {"foo":{"bar":{"x":"y"},"baz":1}},{},{"any json stucture":1}
SELECT * FROM json_as_string;
Результат:
┌─json────────────────────────────────┐
│ {"foo":{"bar":{"x":"y"},"baz":1}} │
│ {} │
│ {"any json stucture":1} │
└──────────────────────────────────────┘
Пример с массивом объектов JSON
Запрос:
DROP TABLE IF EXISTS json_square_brackets;
CREATE TABLE json_square_brackets (field String) ENGINE = Memory;
INSERT INTO json_square_brackets FORMAT JSONAsString [{"id": 1, "name": "name1"}, {"id": 2, "name": "name2"}];
SELECT * FROM json_square_brackets;
Результат:
┌─field────────────────────────┐
│ {"id": 1, "name": "name1"} │
│ {"id": 2, "name": "name2"} │
└──────────────────────────────┘
Отличается от JSON только тем, что строчки данных выводятся в массивах, а не в object-ах.
Пример:
// JSONCompact
{
"meta":
[
{
"name": "'hello'",
"type": "String"
},
{
"name": "multiply(42, number)",
"type": "UInt64"
},
{
"name": "range(5)",
"type": "Array(UInt8)"
}
],
"data":
[
["hello", "0", [0,1,2,3,4]],
["hello", "42", [0,1,2,3,4]],
["hello", "84", [0,1,2,3,4]]
],
"rows": 3,
"rows_before_limit_at_least": 3
}
// JSONCompactStrings
{
"meta":
[
{
"name": "'hello'",
"type": "String"
},
{
"name": "multiply(42, number)",
"type": "UInt64"
},
{
"name": "range(5)",
"type": "Array(UInt8)"
}
],
"data":
[
["hello", "0", "[0,1,2,3,4]"],
["hello", "42", "[0,1,2,3,4]"],
["hello", "84", "[0,1,2,3,4]"]
],
"rows": 3,
"rows_before_limit_at_least": 3
}
При использовании этих форматов RT.WideStore выводит каждую запись как значения JSON (каждое значение отдельной строкой), при этом данные в целом — невалидный JSON.
{"some_int":42,"some_str":"hello","some_tuple":[1,"a"]} // JSONEachRow
[42,"hello",[1,"a"]] // JSONCompactEachRow
["42","hello","(2,'a')"] // JSONCompactStringsEachRow
При вставке данных вы должны предоставить отдельное значение JSON для каждой строки.
Отличается от JSONEachRow
/JSONStringsEachRow
тем, что RT.WideStore будет выдавать информацию о ходе выполнения в виде значений JSON.
{"row":{"'hello'":"hello","multiply(42, number)":"0","range(5)":[0,1,2,3,4]}}
{"row":{"'hello'":"hello","multiply(42, number)":"42","range(5)":[0,1,2,3,4]}}
{"row":{"'hello'":"hello","multiply(42, number)":"84","range(5)":[0,1,2,3,4]}}
{"progress":{"read_rows":"3","read_bytes":"24","written_rows":"0","written_bytes":"0","total_rows_to_read":"3"}}
Отличается от JSONCompactEachRow
/JSONCompactStringsEachRow
тем, что имена и типы столбцов записываются как первые две строки.
Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена. Если включен параметр input_format_with_types_use_header, типы из входных данных будут сравниваться с типами соответствующих столбцов из таблицы. В противном случае вторая строка будет пропущена.
["'hello'", "multiply(42, number)", "range(5)"]
["String", "UInt64", "Array(UInt8)"]
["hello", "0", [0,1,2,3,4]]
["hello", "42", [0,1,2,3,4]]
["hello", "84", [0,1,2,3,4]]
INSERT INTO UserActivity FORMAT JSONEachRow {"PageViews":5, "UserID":"4324182021466249494", "Duration":146,"Sign":-1} {"UserID":"4324182021466249494","PageViews":6,"Duration":185,"Sign":1}
RT.WideStore допускает:
RT.WideStore игнорирует пробелы между элементами и запятые после объектов. Вы можете передать все объекты одной строкой. Вам не нужно разделять их переносами строк.
Обработка пропущенных значений
RT.WideStore заменяет опущенные значения значениями по умолчанию для соответствующих типов данных.
Если указано DEFAULT expr
, то RT.WideStore использует различные правила подстановки в зависимости от настройки input_format_defaults_for_omitted_fields.
Рассмотрим следующую таблицу:
CREATE TABLE IF NOT EXISTS example_table( x UInt32, a DEFAULT x * 2) ENGINE = Memory;
Если input_format_defaults_for_omitted_fields = 0
, то значение по умолчанию для x
и a
равняется 0
(поскольку это значение по умолчанию для типа данных UInt32
.)
Если input_format_defaults_for_omitted_fields = 1
, то значение по умолчанию для x
равно 0
, а значение по умолчанию a
равно x * 2
.
Предупреждение:
При добавлении данных с помощью
input_format_defaults_for_omitted_fields = 1
, RT.WideStore потребляет больше вычислительных ресурсов по сравнению сinput_format_defaults_for_omitted_fields = 0
.
Рассмотрим в качестве примера таблицу UserActivity
:
┌───────────────UserID─┬─PageViews─┬─Duration──┬─Sign─┐
│ 4324182021466249494 │ 5 │ 146 │ -1 │
│ 4324182021466249494 │ 6 │ 185 │ 1 │
└───────────────────────┴────────────┴───────────┴──────┘
Запрос SELECT * FROM UserActivity FORMAT JSONEachRow
возвращает:
{"UserID":"4324182021466249494","PageViews":5,"Duration":146,"Sign":-1}
{"UserID":"4324182021466249494","PageViews":6,"Duration":185,"Sign":1}
В отличие от формата JSON, для JSONEachRow
RT.WideStore не заменяет невалидные UTF-8 последовательности. Значения экранируются так же, как и для формата JSON
.
Примечание:
В строках может выводиться произвольный набор байт. Используйте формат `JSONEachRow`, если вы уверены, что данные в таблице могут быть представлены в формате JSON без потери информации.
Если у вас есть таблица со столбцами типа Nested, то в неё можно вставить данные из JSON-документа с такой же структурой. Функциональность включается настройкой input_format_import_nested_json.
Например, рассмотрим следующую таблицу:
CREATE TABLE json_each_row_nested (n Nested (s String, i Int32) ) ENGINE = Memory
Из описания типа данных Nested
видно, что RT.WideStore трактует каждый компонент вложенной структуры как отдельный столбец (для нашей таблицы n.s
и n.i
). Можно вставить данные следующим образом:
INSERT INTO json_each_row_nested FORMAT JSONEachRow {"n.s": ["abc", "def"], "n.i": [1, 23]}
Чтобы вставить данные как иерархический объект JSON, установите input_format_import_nested_json=1.
{
"n": {
"s": ["abc", "def"],
"i": [1, 23]
}
}
Без этой настройки RT.WideStore сгенерирует исключение.
SELECT name, value FROM system.settings WHERE name = 'input_format_import_nested_json'
┌─name──────────────────────────────┬─value─┐
│ input_format_import_nested_json │ 0 │
└────────────────────────────────────┴───────┘
INSERT INTO json_each_row_nested FORMAT JSONEachRow {"n": {"s": ["abc", "def"], "i": [1, 23]}}
Code: 117. DB::Exception: Unknown field found while parsing JSONEachRow format: n: (at row 1)
SET input_format_import_nested_json=1INSERT INTO json_each_row_nested FORMAT JSONEachRow {"n": {"s": ["abc", "def"], "i": [1, 23]}}SELECT * FROM json_each_row_nested
┌─n.s────────────┬─n.i────┐
│ ['abc','def'] │ [1,23] │
└────────────────┴─────────┘
Самый эффективный формат. Данные пишутся и читаются блоками в бинарном виде. Для каждого блока пишется количество строк, количество столбцов, имена и типы столбцов, а затем кусочки столбцов этого блока, один за другим. То есть, этот формат является «столбцовым» - не преобразует столбцы в строки. Именно этот формат используется в родном интерфейсе - при межсерверном взаимодействии, при использовании клиента командной строки, при работе клиентов, написанных на C++.
Вы можете использовать этот формат для быстрой генерации дампов, которые могут быть прочитаны только СУБД RT.WideStore. Вряд ли имеет смысл работать с этим форматом самостоятельно.
Ничего не выводит. При этом, запрос обрабатывается, а при использовании клиента командной строки, данные ещё и передаются на клиент. Используется для тестов, в том числе, тестов производительности. Очевидно, формат подходит только для вывода, но не для парсинга.
Выводит данные в виде Unicode-art табличек, также используя ANSI-escape последовательности для установки цветов в терминале. Рисуется полная сетка таблицы и, таким образом, каждая строчка занимает две строки в терминале. Каждый блок результата выводится в виде отдельной таблицы. Это нужно, чтобы можно было выводить блоки без буферизации результата (буферизация потребовалась бы, чтобы заранее вычислить видимую ширину всех значений.)
NULL выводится как ᴺᵁᴸᴸ
.
SELECT * FROM t_null
┌─x─┬────y─┐
│ 1 │ ᴺᵁᴸᴸ │
└───┴──────┘
В форматах Pretty*
строки выводятся без экранирования. Ниже приведен пример для формата PrettyCompact:
SELECT 'String with \'quotes\' and \t character' AS Escaping_test
┌─Escaping_test──────────────────────────┐
│ String with 'quotes' and character │
└─────────────────────────────────────────┘
Для защиты от вываливания слишком большого количества данных в терминал, выводится только первые 10 000 строк. Если строк больше или равно 10 000, то будет написано «Showed first 10 000.» Этот формат подходит только для вывода результата выполнения запроса, но не для парсинга (приёма данных для вставки в таблицу).
Формат Pretty
поддерживает вывод тотальных значений (при использовании WITH TOTALS) и экстремальных значений (при настройке extremes выставленной в 1). В этих случаях, после основных данных выводятся тотальные значения, и экстремальные значения, в отдельных табличках. Пример (показан для формата PrettyCompact):
SELECT EventDate, count() AS c FROM test.hits GROUP BY EventDate WITH TOTALS ORDER BY EventDate FORMAT PrettyCompact
┌──EventDate─┬────────c─┐
│ 2014-03-17 │ 1406958 │
│ 2014-03-18 │ 1383658 │
│ 2014-03-19 │ 1405797 │
│ 2014-03-20 │ 1353623 │
│ 2014-03-21 │ 1245779 │
│ 2014-03-22 │ 1031592 │
│ 2014-03-23 │ 1046491 │
└─────────────┴──────────┘
Totals:
┌──EventDate─┬────────c─┐
│ 1970-01-01 │ 8873898 │
└─────────────┴──────────┘
Extremes:
┌──EventDate─┬────────c─┐
│ 2014-03-17 │ 1031592 │
│ 2014-03-23 │ 1406958 │
└─────────────┴──────────┘
Отличается от Pretty тем, что не рисуется сетка между строками - результат более компактный. Этот формат используется по умолчанию в клиенте командной строки в интерактивном режиме.
Отличается от PrettyCompact тем, что строки (до 10 000 штук) буферизуются и затем выводятся в виде одной таблицы, а не по блокам.
Отличается от Pretty тем, что не используются ANSI-escape последовательности. Это нужно для отображения этого формата в браузере, а также при использовании утилиты командной строки watch.
Пример:
$ watch -n1 "clickhouse-client --query='SELECT event, value FROM system.events FORMAT PrettyCompactNoEscapes'"
Для отображения в браузере, вы можете использовать HTTP интерфейс.
Аналогично.
Аналогично.
Отличается от PrettyCompact тем, что вместо сетки используется пустое пространство (пробелы).
Форматирует и парсит данные по строкам, в бинарном виде. Строки и значения уложены подряд, без разделителей. Так как данные представлены в бинарном виде, разделитель после FORMAT RowBinary
строго определен в следующем виде: любое количество пробелов (' '
- space, код 0x20
; '\t'
- tab, код 0x09
; '\f'
- form feed, код 0x0C
), следующая за этим одна последовательность конца строки (Windows style "\r\n"
или Unix style '\n'
), и непосредственно следующие за этим бинарные данные. Формат менее эффективен, чем формат Native, так как является строковым.
Числа представлены в little endian формате фиксированной длины. Для примера, UInt64 занимает 8 байт. DateTime представлены как UInt32, содержащий unix timestamp в качестве значения. Date представлены как UInt16, содержащий количество дней, прошедших с 1970-01-01 в качестве значения. String представлены как длина в формате varint (unsigned LEB128), а затем байты строки. FixedString представлены просто как последовательность байт.
Array представлены как длина в формате varint (unsigned LEB128), а затем элементы массива, подряд.
Для поддержки NULL перед каждым значением типа Nullable следует байт содержащий 1 или 0. Если байт 1, то значение равно NULL, и этот байт интерпретируется как отдельное значение (т.е. после него следует значение следующего поля). Если байт 0, то после байта следует значение поля (не равно NULL).
То же самое что RowBinary, но добавляется заголовок:
String
) с именами колонок,Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена.
То же самое что RowBinary, но добавляется заголовок:
String
) с именами колонок,String
) с типами колонок.Внимание:
Если включен параметр input_format_with_names_use_header, столбцы из входных данных будут сопоставлены со столбцами таблицы по их именам, столбцы с неизвестными именами будут пропущены, если включен параметр input_format_skip_unknown_fields. В противном случае первая строка будет пропущена. Если включен параметр input_format_with_types_use_header, типы из входных данных будут сравниваться с типами соответствующих столбцов из таблицы. В противном случае вторая строка будет пропущена.
Выводит каждую строку в скобках. Строки разделены запятыми. После последней строки запятой нет. Значения внутри скобок также разделены запятыми. Числа выводятся в десятичном виде без кавычек. Массивы выводятся в квадратных скобках. Строки, даты, даты-с-временем выводятся в кавычках. Правила экранирования и особенности парсинга аналогичны формату TabSeparated. При форматировании, лишние пробелы не ставятся, а при парсинге - допустимы и пропускаются (за исключением пробелов внутри значений типа массив, которые недопустимы). NULL представляется как NULL
.
Минимальный набор символов, которых вам необходимо экранировать при передаче в Values формате: одинарная кавычка и обратный слеш.
Именно этот формат используется в запросе INSERT INTO t VALUES ...
, но вы также можете использовать его для форматирования результатов запросов.
Выводит каждое значение на отдельной строке, с указанием имени столбца. Формат удобно использовать для вывода одной-нескольких строк, если каждая строка состоит из большого количества столбцов.
NULL выводится как ᴺᵁᴸᴸ
.
Пример:
SELECT * FROM t_null FORMAT Vertical
Row 1:
──────
x: 1
y: ᴺᵁᴸᴸ
В формате Vertical
строки выводятся без экранирования. Например:
SELECT 'string with \'quotes\' and \t with some special \n characters' AS test FORMAT Vertical
Row 1:
──────
test: string with 'quotes' and with some special
characters
Этот формат подходит только для вывода результата выполнения запроса, но не для парсинга (приёма данных для вставки в таблицу).
Формат XML подходит только для вывода данных, не для парсинга. Пример:
<?xml version='1.0' encoding='UTF-8' ?>
<result>
<meta>
<columns>
<column>
<name>SearchPhrase</name>
<type>String</type>
</column>
<column>
<name>count()</name>
<type>UInt64</type>
</column>
</columns>
</meta>
<data>
<row>
<SearchPhrase></SearchPhrase>
<field>8267016</field>
</row>
<row>
<SearchPhrase>интерьер ванной комнаты</SearchPhrase>
<field>2166</field>
</row>
<row>
<SearchPhrase>яндекс</SearchPhrase>
<field>1655</field>
</row>
<row>
<SearchPhrase>весна 2014 мода</SearchPhrase>
<field>1549</field>
</row>
<row>
<SearchPhrase>фриформ фото</SearchPhrase>
<field>1480</field>
</row>
<row>
<SearchPhrase>анджелина джоли</SearchPhrase>
<field>1245</field>
</row>
<row>
<SearchPhrase>омск</SearchPhrase>
<field>1112</field>
</row>
<row>
<SearchPhrase>фото собак разных пород</SearchPhrase>
<field>1091</field>
</row>
<row>
<SearchPhrase>дизайн штор</SearchPhrase>
<field>1064</field>
</row>
<row>
<SearchPhrase>баку</SearchPhrase>
<field>1000</field>
</row>
</data>
<rows>10</rows>
<rows_before_limit_at_least>141137</rows_before_limit_at_least>
</result>
Если имя столбца не имеет некоторый допустимый вид, то в качестве имени элемента используется просто field. В остальном, структура XML повторяет структуру в формате JSON. Как и для формата JSON, невалидные UTF-8 последовательности заменяются на replacement character � и, таким образом, выводимый текст будет состоять из валидных UTF-8 последовательностей.
В строковых значениях, экранируются символы <
и &
как <
и &
.
Массивы выводятся как <array><elem>Hello</elem><elem>World</elem>...</array>
, а кортежи как <tuple><elem>Hello</elem><elem>World</elem>...</tuple>
.
CapnProto — формат бинарных сообщений, похож на Protocol Protocol Buffers и Thrift, но не похож на JSON или MessagePack.
Сообщения формата CapnProto строго типизированы и не самоописывающиеся, т.е. нуждаются во внешнем описании схемы. Схема применяется "на лету" и кешируется между запросами.
См. также схема формата.
Таблица ниже содержит поддерживаемые типы данных и их соответствие типам данных RT.WideStore для запросов INSERT
и SELECT
.
Тип данных CapnProto (INSERT) |
Тип данных RT.WideStore |
Тип данных CapnProto (SELECT) |
---|---|---|
UINT8, BOOL | UInt8 | UINT8 |
INT8 | Int8 | INT8 |
UINT16 | UInt16, Date | UINT16 |
INT16 | Int16 | INT16 |
UINT32 | UInt32, DateTime | UINT32 |
INT32 | Int32 | INT32 |
UINT64 | UInt64 | UINT64 |
INT64 | Int64, DateTime64 | INT64 |
FLOAT32 | Float32 | FLOAT32 |
FLOAT64 | Float64 | FLOAT64 |
TEXT, DATA | String, FixedString | TEXT, DATA |
union(T, Void), union(Void, T) | Nullable(T) | union(T, Void), union(Void, T) |
ENUM | Enum(8|16) | ENUM |
LIST | Array | LIST |
STRUCT | Tuple | STRUCT |
Для работы с типом данных Enum
в формате CapnProto используйте настройку format_capn_proto_enum_comparising_mode.
Массивы могут быть вложенными и иметь в качестве аргумента значение типа Nullable
. Тип Tuple
также может быть вложенным.
Чтобы вставить в RT.WideStore данные из файла в формате CapnProto, выполните команду следующего вида:
$ cat capnproto_messages.bin | clickhouse-client --query "INSERT INTO test.hits FORMAT CapnProto SETTINGS format_schema = 'schema:Message'"
Где schema.capnp
выглядит следующим образом:
struct Message {
SearchPhrase @0 :Text;
c @1 :Uint64;
}
Чтобы получить данные из таблицы RT.WideStore и сохранить их в файл формата CapnProto, используйте команду следующего вида:
$ clickhouse-client --query = "SELECT * FROM test.hits FORMAT CapnProto SETTINGS format_schema = 'schema:Message'"
Protobuf - формат Protocol Buffers.
Формат нуждается во внешнем описании схемы. Схема кэшируется между запросами. RT.WideStore поддерживает как синтаксис proto2
, так и proto3
; все типы полей (repeated/optional/required) поддерживаются.
Пример использования формата:
SELECT * FROM test.table FORMAT Protobuf SETTINGS format_schema = 'schemafile:MessageType'
или
$ cat protobuf_messages.bin | clickhouse-client --query "INSERT INTO test.table FORMAT Protobuf SETTINGS format_schema='schemafile:MessageType'"
Где файл schemafile.proto
может выглядеть так:
syntax = "proto3";
message MessageType {
string name = 1;
string surname = 2;
uint32 birthDate = 3;
repeated string phoneNumbers = 4;
};
Соответствие между столбцами таблицы и полями сообщения Protocol Buffers
устанавливается по имени, при этом игнорируется регистр букв и символы _
(подчеркивание) и .
(точка) считаются одинаковыми. Если типы столбцов не соответствуют точно типам полей сообщения Protocol Buffers
, производится необходимая конвертация.
Вложенные сообщения поддерживаются, например, для поля z
в таком сообщении
message MessageType {
message XType {
message YType {
int32 z;
};
repeated YType y;
};
XType x;
};
RT.WideStore попытается найти столбец с именем x.y.z
(или x_y_z
, или X.y_Z
и т.п.). Вложенные сообщения удобно использовать в качестве соответствия для вложенной структуры данных.
Значения по умолчанию, определённые в схеме proto2
, например,
syntax = "proto2";
message MessageType {
optional int32 result_per_page = 3 [default = 10];
}
не применяются; вместо них используются определенные в таблице значения по умолчанию.
RT.WideStore пишет и читает сообщения Protocol Buffers
в формате length-delimited
. Это означает, что перед каждым сообщением пишется его длина в формате varint. См. также как читать и записывать сообщения Protocol Buffers в формате length-delimited в различных языках программирования.
То же, что Protobuf, но без разделителей. Позволяет записать / прочитать не более одного сообщения за раз.
Apache Avro — это ориентированный на строки фреймворк для сериализации данных. Разработан в рамках проекта Apache Hadoop.
В RT.WideStore формат Avro поддерживает чтение и запись файлов данных Avro.
Для формата AvroConfluent
RT.WideStore поддерживает декодирование сообщений Avro
с одним объектом. Такие сообщения используются с Kafka и реестром схем Confluent.
Каждое сообщение Avro
содержит идентификатор схемы, который может быть разрешен для фактической схемы с помощью реестра схем.
Схемы кэшируются после разрешения.
URL-адрес реестра схем настраивается с помощью format_avro_schema_registry_url.
Такое же, как в Avro.
Чтобы быстро проверить разрешение схемы, используйте kafkacat с языком запросов clickhouse-local:
$ kafkacat -b kafka-broker -C -t topic1 -o beginning -f '%s' -c 3 | clickhouse-local --input-format AvroConfluent --format_avro_schema_registry_url 'http://schema-registry' -S "field1 Int64, field2 String" -q 'select * from table'
1 a
2 b
3 c
Чтобы использовать AvroConfluent
с Kafka:
CREATE TABLE topic1_stream
(
field1 String,
field2 String)
ENGINE = Kafka()
SETTINGS
kafka_broker_list = 'kafka-broker',
kafka_topic_list = 'topic1',
kafka_group_name = 'group1',
kafka_format = 'AvroConfluent';
SET format_avro_schema_registry_url = 'http://schema-registry';
SELECT * FROM topic1_stream;
Внимание:
"`format_avro_schema_registry_url` необходимо настроить в `users.xml`, чтобы сохранить значение после перезапуска. Также можно использовать настройку `format_avro_schema_registry_url` табличного движка `Kafka`
Apache Parquet — формат поколоночного хранения данных, который распространён в экосистеме Hadoop. Для формата Parquet
RT.WideStore поддерживает операции чтения и записи.
Таблица ниже содержит поддерживаемые типы данных и их соответствие типам данных RT.WideStore для запросов INSERT
и SELECT
.
Тип данных Parquet (INSERT) |
Тип данных RT.WideStore |
Тип данных Parquet (SELECT) |
---|---|---|
UINT8, BOOL | UInt8 | UINT8 |
INT8 | Int8 | INT8 |
UINT16 | UInt16 | UINT16 |
INT16 | Int16 | INT16 |
UINT32 | UInt32 | UINT32 |
INT32 | Int32 | INT32 |
UINT64 | UInt64 | UINT64 |
INT64 | Int64 | INT64 |
FLOAT, HALF_FLOAT | Float32 | FLOAT |
DOUBLE | Float64 | DOUBLE |
DATE32 | Date | UINT16 |
DATE64, TIMESTAMP | DateTime | UINT32 |
STRING, BINARY | String | BINARY |
— | FixedString | BINARY |
DECIMAL | Decimal | DECIMAL |
LIST | Array | LIST |
STRUCT | Tuple | STRUCT |
MAP | Map | MAP |
Массивы могут быть вложенными и иметь в качестве аргумента значение типа Nullable
. Типы Tuple
и Map
также могут быть вложенными.
RT.WideStore поддерживает настраиваемую точность для формата Decimal
. При выполнении запроса INSERT
RT.WideStore обрабатывает тип данных Parquet DECIMAL
как Decimal128
.
Неподдерживаемые типы данных Parquet: TIME32
, FIXED_SIZE_BINARY
, JSON
, UUID
, ENUM
.
Типы данных столбцов в RT.WideStore могут отличаться от типов данных соответствующих полей файла в формате Parquet. При вставке данных RT.WideStore интерпретирует типы данных в соответствии с таблицей выше, а затем приводит данные к тому типу, который установлен для столбца таблицы.
Чтобы вставить в RT.WideStore данные из файла в формате Parquet, выполните команду следующего вида:
$ cat {filename} | clickhouse-client --query="INSERT INTO {some_table} FORMAT Parquet"
Чтобы вставить данные в колонки типа Nested в виде массива структур, нужно включить настройку input_format_parquet_import_nested.
Чтобы получить данные из таблицы RT.WideStore и сохранить их в файл формата Parquet, используйте команду следующего вида:
$ clickhouse-client --query="SELECT * FROM {some_table} FORMAT Parquet" > {some_file.pq}
Для обмена данными с экосистемой Hadoop можно использовать движки таблиц HDFS.
Apache Arrow поставляется с двумя встроенными поколоночнами форматами хранения. RT.WideStore поддерживает операции чтения и записи для этих форматов.
Arrow
— это Apache Arrow's "file mode" формат. Он предназначен для произвольного доступа в памяти.
Таблица ниже содержит поддерживаемые типы данных и их соответствие типам данных RT.WideStore для запросов INSERT
и SELECT
.
Тип данных Arrow (INSERT) |
Тип данных RT.WideStore |
Тип данных Arrow (SELECT) |
---|---|---|
UINT8, BOOL | UInt8 | UINT8 |
INT8 | Int8 | INT8 |
UINT16 | UInt16 | UINT16 |
INT16 | Int16 | INT16 |
UINT32 | UInt32 | UINT32 |
INT32 | Int32 | INT32 |
UINT64 | UInt64 | UINT64 |
INT64 | Int64 | INT64 |
FLOAT, HALF_FLOAT | Float32 | FLOAT32 |
DOUBLE | Float64 | FLOAT64 |
DATE32 | Date | UINT16 |
DATE64, TIMESTAMP | DateTime | UINT32 |
STRING, BINARY | String | BINARY |
STRING, BINARY | FixedString | BINARY |
DECIMAL | Decimal | DECIMAL |
DECIMAL256 | Decimal256 | DECIMAL256 |
LIST | Array | LIST |
STRUCT | Tuple | STRUCT |
MAP | Map | MAP |
Массивы могут быть вложенными и иметь в качестве аргумента значение типа Nullable
. Типы Tuple
и Map
также могут быть вложенными.
Тип DICTIONARY
поддерживается для запросов INSERT
. Для запросов SELECT
есть настройка output_format_arrow_low_cardinality_as_dictionary, которая позволяет выводить тип LowCardinality как DICTIONARY
.
RT.WideStore поддерживает настраиваемую точность для формата Decimal
. При выполнении запроса INSERT
RT.WideStore обрабатывает тип данных Arrow DECIMAL
как Decimal128
.
Неподдерживаемые типы данных Arrow: TIME32
, FIXED_SIZE_BINARY
, JSON
, UUID
, ENUM
.
Типы данных столбцов в RT.WideStore могут отличаться от типов данных соответствующих полей файла в формате Arrow. При вставке данных RT.WideStore интерпретирует типы данных в соответствии с таблицей выше, а затем приводит данные к тому типу, который установлен для столбца таблицы.
Чтобы вставить в RT.WideStore данные из файла в формате Arrow, используйте команду следующего вида:
$ cat filename.arrow | clickhouse-client --query="INSERT INTO some_table FORMAT Arrow"
Чтобы вставить данные в колонки типа Nested в виде массива структур, нужно включить настройку input_format_arrow_import_nested.
Чтобы получить данные из таблицы RT.WideStore и сохранить их в файл формата Arrow, используйте команду следующего вида:
$ clickhouse-client --query="SELECT * FROM {some_table} FORMAT Arrow" > {filename.arrow}
ArrowStream
— это Apache Arrow's "stream mode" формат. Он предназначен для обработки потоков в памяти.
Apache ORC — это столбцовый формат данных, распространенный в экосистеме Hadoop.
Таблица ниже содержит поддерживаемые типы данных и их соответствие типам данных RT.WideStore для запросов INSERT
и SELECT
.
Тип данных ORC (INSERT) |
Тип данных RT.WideStore |
Тип данных ORC (SELECT) |
---|---|---|
UINT8, BOOL | UInt8 | UINT8 |
INT8 | Int8 | INT8 |
UINT16 | UInt16 | UINT16 |
INT16 | Int16 | INT16 |
UINT32 | UInt32 | UINT32 |
INT32 | Int32 | INT32 |
UINT64 | UInt64 | UINT64 |
INT64 | Int64 | INT64 |
FLOAT, HALF_FLOAT | Float32 | FLOAT |
DOUBLE | Float64 | DOUBLE |
DATE32 | Date | DATE32 |
DATE64, TIMESTAMP | DateTime | TIMESTAMP |
STRING, BINARY | String | BINARY |
DECIMAL | Decimal | DECIMAL |
LIST | Array | LIST |
STRUCT | Tuple | STRUCT |
MAP | Map | MAP |
Массивы могут быть вложенными и иметь в качестве аргумента значение типа Nullable
. Типы Tuple
и Map
также могут быть вложенными.
RT.WideStore поддерживает настраиваемую точность для формата Decimal
. При выполнении запроса INSERT
RT.WideStore обрабатывает тип данных ORC DECIMAL
как Decimal128
.
Неподдерживаемые типы данных ORC: TIME32
, FIXED_SIZE_BINARY
, JSON
, UUID
, ENUM
.
Типы данных столбцов в таблицах RT.WideStore могут отличаться от типов данных для соответствующих полей ORC. При вставке данных RT.WideStore интерпретирует типы данных ORC согласно таблице соответствия, а затем приводит данные к типу, установленному для столбца таблицы RT.WideStore.
Чтобы вставить в RT.WideStore данные из файла в формате ORC, используйте команду следующего вида:
$ cat filename.orc | clickhouse-client --query="INSERT INTO some_table FORMAT ORC"
Чтобы вставить данные в колонки типа Nested в виде массива структур, нужно включить настройку input_format_orc_import_nested.
Чтобы получить данные из таблицы RT.WideStore и сохранить их в файл формата ORC, используйте команду следующего вида:
$ clickhouse-client --query="SELECT * FROM {some_table} FORMAT ORC" > {filename.orc}
Для обмена данных с экосистемой Hadoop вы можете использовать движок таблиц HDFS.
В этом формате каждая строка импортируемых данных интерпретируется как одно строковое значение. Парситься может только таблица с единственным полем типа String. Остальные столбцы должны быть заданы как DEFAULT или MATERIALIZED, либо отсутствовать.
Пример
Запрос:
DROP TABLE IF EXISTS line_as_string;
CREATE TABLE line_as_string (field String) ENGINE = Memory;
INSERT INTO line_as_string FORMAT LineAsString "I love apple", "I love banana", "I love orange";
SELECT * FROM line_as_string;
Результат:
┌─field─────────────────────────────────────────────────┐
│ "I love apple", "I love banana", "I love orange"; │
└───────────────────────────────────────────────────────┘
Каждая строка импортируемых данных разбирается в соответствии с регулярным выражением.
При работе с форматом Regexp
можно использовать следующие параметры:
format_regexp
— String. Строка с регулярным выражением в формате re2.
format_regexp_escaping_rule
— String. Правило экранирования. Поддерживаются следующие правила:
format_regexp_skip_unmatched
— UInt8. Признак, будет ли генерироваться исключение в случае, если импортируемые данные не соответствуют регулярному выражению format_regexp
. Может принимать значение 0
или 1
.
Использование
Регулярное выражение (шаблон) из параметра format_regexp
применяется к каждой строке импортируемых данных. Количество частей в шаблоне (подшаблонов) должно соответствовать количеству колонок в импортируемых данных.
Строки импортируемых данных должны разделяться символом новой строки '\n'
или символами "\r\n"
(перенос строки в формате DOS).
Данные, выделенные по подшаблонам, интерпретируются в соответствии с типом, указанным в параметре format_regexp_escaping_rule
.
Если строка импортируемых данных не соответствует регулярному выражению и параметр format_regexp_skip_unmatched
равен 1, строка просто игнорируется. Если же параметр format_regexp_skip_unmatched
равен 0, генерируется исключение.
Пример
Рассмотрим файл data.tsv:
id: 1 array: [1,2,3] string: str1 date: 2020-01-01
id: 2 array: [1,2,3] string: str2 date: 2020-01-02
id: 3 array: [1,2,3] string: str3 date: 2020-01-03
и таблицу:
CREATE TABLE imp_regex_table (id UInt32, array Array(UInt32), string String, date Date) ENGINE = Memory;
Команда импорта:
$ cat data.tsv | clickhouse-client --query "INSERT INTO imp_regex_table FORMAT Regexp SETTINGS format_regexp='id: (.+?) array: (.+?) string: (.+?) date: (.+?)', format_regexp_escaping_rule='Escaped', format_regexp_skip_unmatched=0;"
Запрос:
SELECT * FROM imp_regex_table;
Результат:
┌─id─┬─array───┬─string─┬────────date─┐
│ 1 │ [1,2,3] │ str1 │ 2020-01-01 │
│ 2 │ [1,2,3] │ str2 │ 2020-01-02 │
│ 3 │ [1,2,3] │ str3 │ 2020-01-03 │
└────┴──────────┴─────────┴─────────────┘
Имя файла со схемой записывается в настройке format_schema
. При использовании форматов Cap'n Proto
и Protobuf
требуется указать схему. Схема представляет собой имя файла и имя типа в этом файле, разделенные двоеточием, например schemafile.proto:MessageType
. Если файл имеет стандартное расширение для данного формата (например .proto
для Protobuf
), то можно его не указывать и записывать схему так schemafile:MessageType
.
Если для ввода/вывода данных используется клиент в интерактивном режиме, то при записи схемы можно использовать абсолютный путь или записывать путь относительно текущей директории на клиенте. Если клиент используется в batch режиме, то в записи схемы допускается только относительный путь, из соображений безопасности.
Если для ввода/вывода данных используется HTTP-интерфейс, то файл со схемой должен располагаться на сервере в каталоге, указанном в параметре format_schema_path конфигурации сервера.
Некоторые форматы, такие как CSV
, TabSeparated
, TSKV
, JSONEachRow
, Template
, CustomSeparated
и Protobuf
, могут игнорировать строки, которые не соответствуют правилам и разбор которых может вызвать ошибку. При этом обработка импортируемых данных продолжается со следующей строки. См. настройки input_format_allow_errors_num и input_format_allow_errors_ratio. Ограничения:
JSONEachRow
в случае ошибки игнорируются все данные до конца текущей строки (или до конца файла). Поэтому строки должны быть разделены символом \n
, чтобы ошибки обрабатывались корректно.Template
и CustomSeparated
используют разделитель после последней колонки и разделитель между строками. Поэтому игнорирование ошибок работает только если хотя бы одна из строк не пустая.В этом формате все входные данные считываются в одно значение. Парсить можно только таблицу с одним полем типа String или подобным ему. Результат выводится в бинарном виде без разделителей и экранирования. При выводе более одного значения формат неоднозначен и будет невозможно прочитать данные снова.
Ниже приведено сравнение форматов RawBLOB
и TabSeparatedRaw. RawBLOB
:
Далее рассмотрено сравнение форматов RawBLOB
и RowBinary. RawBLOB
:
RowBinary
:При передаче на вход RawBLOB
пустых данных, RT.WideStore бросает исключение:
Code: 108. DB::Exception: No data to insert
Пример
$ clickhouse-client --query "CREATE TABLE {some_table} (a String) ENGINE = Memory;"$ cat {filename} | clickhouse-client --query="INSERT INTO {some_table} FORMAT RawBLOB"$ clickhouse-client --query "SELECT * FROM {some_table} FORMAT RawBLOB" | md5sum
Результат:
f9725a22f9191e064120d718e26862a9 -
RT.WideStore поддерживает запись и чтение из файлов в формате MessagePack.
Тип данных MsgPack |
Тип данных RT.WideStore |
---|---|
uint N, positive fixint | UIntN |
int N | IntN |
fixstr, str 8, str 16, str 32 | String, FixedString |
float 32 | Float32 |
float 64 | Float64 |
uint 16 | Date |
uint 32 | DateTime |
uint 64 | DateTime64 |
fixarray, array 16, array 32 | Array |
nil | Nothing |
Пример:
Запись в файл ".msgpk":
$ clickhouse-client --query="CREATE TABLE msgpack (array Array(UInt8)) ENGINE = Memory;"
$ clickhouse-client --query="INSERT INTO msgpack VALUES ([0, 1, 2, 3, 42, 253, 254, 255]), ([255, 254, 253, 42, 3, 2, 1, 0])";
$ clickhouse-client --query="SELECT * FROM msgpack FORMAT MsgPack" > tmp_msgpack.msgpk;