
Константин
12.01.2018
06:16:05
а с ним остановилась вся работа кластера
в логах ЗуКипера:
java.lang.OutOfMemoryError: GC overhead limit exceeded
по связке zookeeper java.lang.OutOfMemoryError: GC overhead limit exceeded - гугл ничего полезного не выдал
на машине зукипера установлено 8 Гб рама

Google

Сергей
12.01.2018
06:33:12

Igor
12.01.2018
09:06:52
Здравствуйте, подскажите пожлуйста где можно скачать ClickHouse ODBC драйвер для Windows?

Oleg
12.01.2018
09:10:13
Привет! Помнится, несколько месяцев назад была бага с отваливающейся репликацией, если хост указан в виде ip. В чейнжлоге не нашел, это пофиксили?

Mike
12.01.2018
09:19:27

Igor
12.01.2018
10:18:50
Спасибо

Nata
12.01.2018
10:29:03
Добрый день! Есть задача изменить у табличек Engine c ReplicatedSummingMergeTree на ReplicatedMergeTree.
Делаю детач таблицы, захожу в zkCli, делаю get /clickhouse/metadata/.../metadata, вижу вот такое:
metadata format version: 1
date column: event_date
sampling expression:
index granularity: 8192
mode: 2
sign column:
primary key: event_ts, user_id, src_ip, dst_ip, host, method, url, user_agent
вопрос: как правильно изменить метаданные?(в primary_key надо оставить только src_ip, event_ts)
пытаюсь пересоздать с нуля и сделать set /clickhouse.. <параметр>, но не получается их собрать вместе, точнее когда делаю гет, то вижу тлько последнее значение. Может кто подскажет как сразу несколько строк в set засунуть? Спасибо

Mike
12.01.2018
10:33:50
Коллеги, а расширить первичный ключ (было одно поле,нужен кортеж) на лету у мерджтри можно или пересоздавать таблицы с перезаливкой?

Tima
12.01.2018
10:43:18

Mike
12.01.2018
10:43:52
Спасибо, буду перезаливать данные тогда

Nata
12.01.2018
10:53:47

Артем
12.01.2018
12:42:28
Всем привет, может кто сталкивался с проблемой в tableau, при попытке получить данные из КХ вываливается такая ошибка
HTTP status code: 500 Received error: Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 8 (line 1, col 8): {fn LTRIM({fn CONVERT(Custom_SQL_Query.offer_category, SQL_VARCHAR)})} AS offer_category, Custom_SQL_Query.platform AS `plat. Unrecognized token, e.what() = DB::Exception
Unable to create extract

Mikhail
12.01.2018
13:09:30
Привет. Столкнулся с очень странной проблемой потери данных в одном из Meterialized view на одном из шардов. Детальнее описана вот в этой теме только что - https://groups.google.com/d/topic/clickhouse/DpRGKhJgB_8/discussion
У меня вообще нет идей, куда копать, и что теперь делать, кроме отказа от этого VIEW. Он, конечно, не очень нужный, но начинаю опасаться, что это повторится где-то еще.
Куда стоит посмотреть?


Edya
12.01.2018
13:10:36
Всем привет, может кто сталкивался с проблемой в tableau, при попытке получить данные из КХ вываливается такая ошибка
HTTP status code: 500 Received error: Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 8 (line 1, col 8): {fn LTRIM({fn CONVERT(Custom_SQL_Query.offer_category, SQL_VARCHAR)})} AS offer_category, Custom_SQL_Query.platform AS `plat. Unrecognized token, e.what() = DB::Exception
Unable to create extract
Посмотри какой именно запрос формирует табло к КХ.
Help -> Settings and Performance -> Start performance recording
Если понятнее не станет, то прямо в custom_sql нужно сделать преобразования к нужным типам, чтобы odbc этим не занимался. Также проверь, что у тебя последняя версия odbc-драйвера.

Google

Mikhail
12.01.2018
13:12:15
Привет. Столкнулся с очень странной проблемой потери данных в одном из Meterialized view на одном из шардов. Детальнее описана вот в этой теме только что - https://groups.google.com/d/topic/clickhouse/DpRGKhJgB_8/discussion
У меня вообще нет идей, куда копать, и что теперь делать, кроме отказа от этого VIEW. Он, конечно, не очень нужный, но начинаю опасаться, что это повторится где-то еще.
Куда стоит посмотреть?
@milovidov_an, @ztlpn это не может быть продолжением проблем репликации, исправленными перед НГ? Я уже обновлялся до всех вставок, версия 1.1.54327.


Артем
12.01.2018
13:27:29
Посмотри какой именно запрос формирует табло к КХ.
Help -> Settings and Performance -> Start performance recording
Если понятнее не станет, то прямо в custom_sql нужно сделать преобразования к нужным типам, чтобы odbc этим не занимался. Также проверь, что у тебя последняя версия odbc-драйвера.
- Версия odbc последняя
- Запросы в custom_sql выполняются без ошибок
Но при использование агрегации в Табло ошибки сразу появляются, например посчитать сумму валится ошибка, при агрегации Табло сама делает приведение типов и как итог ошибка
HTTP status code: 500 Received error: Code: 62, e.displayText() = DB::Exception: Syntax error: failed at position 12 (line 1, col 12): {fn CONVERT(Custom_SQL_Query.amount, SQL_BIGINT)}) AS sum_amount FROM ( SELECT purchase, offer, SUM(. Unrecognized token, e.what() = DB::Exception

prll
12.01.2018
13:30:19
а можно целиком запрос показать ?

Артем
12.01.2018
13:34:45
а можно целиком запрос показать ?
SELECT SUM({fn CONVERT(Custom_SQL_Query.amount, SQL_BIGINT)}) AS sum_amount
FROM (
SELECT purchase_date,
offer_category,
SUM(amount) AS amount,
COUNT(DISTINCT purchase_id) AS purchase_id
FROM purchase_stat
WHERE (purchase_date >= toDate('2017-01-01'))
AND (offer_category = 1)
GROUP BY purchase_date, offer_category
) Custom_SQL_Query
HAVING (COUNT(1) > 0)

ilyatru
12.01.2018
13:39:35
Табло генерирует враппер-куери поверх кастом куери. Во враперах оно достаёт поля используемые в отчетах.
Оно также производит преобразование типов
Полагаю {fn convert... big_int} не распознается кх

Артем
12.01.2018
13:42:56
сделал просто подсчет записей и все отработало без ошибок
SELECT COUNT(Custom_SQL_Query.amount) AS sum_amount
FROM (
SELECT purchase_date,
offer_category,
SUM(amount) AS amount,
COUNT(DISTINCT purchase_id) AS purchase_id
FROM purchase_stat
WHERE (purchase_date >= toDate('2017-01-01'))
AND (offer_category = 1)
GROUP BY purchase_date, offer_category
) Custom_SQL_Query
HAVING (COUNT(1) > 0)

ilyatru
12.01.2018
13:43:12
Попробуйте использовать другой тип для этого поля
Вы также можете подсчитать это значение в самой куере

Артем
12.01.2018
13:45:26
ни у кого больше проблем с CONVERT() не возникало ?
Нашел проблему, мой косяк
пытался получить данные в Live режиме
в режиме Extract все работает

prll
12.01.2018
14:07:08
нет, проблемы в odbc драйвере, уже частично исправлены, в следующем релизе должно будет работать

Oleg
12.01.2018
14:16:30
импортирую в FixedString строку вида \x00\x00\x00 - в формате TSV нормально, в CSV ругается 'Code: 131. DB::Exception: Too large value for FixedString'. Подскажите, пожалуйста - это баг, или
фича?

ilyatru
12.01.2018
14:19:49

prll
12.01.2018
14:20:55
совсем только на odbc - нет.
А проблему этого запроса я уже исправляю.

Google

ilyatru
12.01.2018
14:23:41

Илья
12.01.2018
14:27:35
Ребят, а подскажите где искать/установить настройку experimental_allow_extended_storage_definition_syntax
И такой вопрос если в новом синтаксисе для партиционирования я укажу поле которое имее тип Date без функций, партиционирование же по дням будет?
CREATE TABLE default.test (
ed Date DEFAULT today(),
id String,
ge Array(UInt64) DEFAULT array(1148),
ai Array(String) DEFAULT array(''),
bf Int64
) ENGINE = MergeTree
PARTITION BY ed
ORDER BY (ed, ge, ai)

Vladimir
12.01.2018
14:33:22

Илья
12.01.2018
14:33:41
благодарю

Alex
12.01.2018
16:13:02

Mikhail
12.01.2018
16:19:02
┌─name────────────────────────────────────────┬─value─┬─changed─┐
│ distributed_aggregation_memory_efficient │ 0 │ 0 │


Alex
12.01.2018
16:21:49
Ага, внешняя агрегация включена. Осталось понять, почему она срабатывает

Mikhail
12.01.2018
16:22:45
второй вопрос, который мне гораздо интереснее - куда молча теряется 1-2% данных ?
объем бакетов, видно в логах - крошечный.
ls -alhS 20180112_20180112_977266_977266_0|head -n 10
total 864K
drwxr-x--- 1750 clickhouse clickhouse 268K Jan 12 19:24 ..
drwxr-x--- 2 clickhouse clickhouse 4.0K Jan 12 19:16 .
-rw-r----- 1 clickhouse clickhouse 3.0K Jan 12 19:16 checksums.txt
-rw-r----- 1 clickhouse clickhouse 2.8K Jan 12 19:16 columns.txt
-rw-r----- 1 clickhouse clickhouse 1.2K Jan 12 19:16 country_region.bin
-rw-r----- 1 clickhouse clickhouse 1.2K Jan 12 19:16 browser_combined.bin
-rw-r----- 1 clickhouse clickhouse 1.1K Jan 12 19:16 os_version.bin
-rw-r----- 1 clickhouse clickhouse 968 Jan 12 19:16 browser_name.bin
-rw-r----- 1 clickhouse clickhouse 719 Jan 12 19:16 region.bin
То есть, конкретное значение max_bytes_before_external_group_by вряд ли на что-то влияет.

antuan
12.01.2018
16:26:16
а какая у вас версия?

Mikhail
12.01.2018
16:27:09
1.1.54327
напомню, что при таком же конфиге на таком же сервере такая же, но нереплицируемая вьюшкам - такого эффекта не дает. и ошибок нет, и данные не теряются.

Alex
12.01.2018
16:34:44
А приведите пожалуйста конфиг кластера и DDL таблиц (можно в личку)

Mikhail
12.01.2018
17:22:40
в личке. Кластер рабочий, ломать его не стоит, но какие-то безопасные манипуляции для дебага делать можно.

Alex
12.01.2018
17:34:00
Спасибо, посмотрю


Mikhail
12.01.2018
17:39:25
Возможно, это тоже будет интересно:
2018.01.12 20:35:08.855316 [ 1679 ] <Trace> virtual DB::MergingAndConvertingBlockInputStream::~MergingAndConvertingBlockInputStream(): Waiting for threads to finish
2018.01.12 20:35:08.856471 [ 1679 ] <Trace> InterpreterSelectQuery: FetchColumns -> Complete
2018.01.12 20:35:08.857878 [ 1679 ] <Trace> Aggregator: Aggregating
2018.01.12 20:35:08.858632 [ 1679 ] <Trace> Aggregator: Aggregation method: concat
2018.01.12 20:35:09.100571 [ 1679 ] <Trace> Aggregator: Converting aggregation data to two-level.
2018.01.12 20:35:09.120882 [ 1679 ] <Debug> Aggregator: Writing part of aggregation data into temporary file /home/clickhouse/tmp/tmp9257xpgaaa.
...
2018.01.12 20:35:09.293185 [ 1679 ] <Trace> Aggregator: Max size of temporary block: 373 rows, 6144.211 MiB.
2018.01.12 20:35:09.294223 [ 1679 ] <Trace> Aggregator: Written part in 0.190 sec., 83664 rows, 38.541 MiB uncompressed, 3.837 MiB compressed, 483.040 uncompressed bytes per row, 48.086 compressed bytes
per row, compression rate: 10.045 (440637.099 rows/sec., 202.985 MiB/sec. uncompressed, 20.207 MiB/sec. compressed)
2018.01.12 20:35:09.294297 [ 1679 ] <Trace> Aggregator: Aggregated. 386881 to 0 rows (from 666.505 MiB) in 0.436 sec. (886610.078 rows/sec., 1527.422 MiB/sec.)
2018.01.12 20:35:09.294543 [ 1679 ] <Trace> AggregatingBlockInputStream: Will merge 1 temporary files of size 3.83673 MiB compressed, 38.5409 MiB uncompressed.
2018.01.12 20:35:09.296101 [ 1679 ] <Trace> Aggregator: Merging partially aggregated blocks (bucket = 0).
2018.01.12 20:35:09.296917 [ 1679 ] <Trace> Aggregator: Merged partially aggregated blocks. 300 rows, 11.982 MiB. in 0.001 sec. (408062.776 rows/sec., 16298.055 MiB/sec.)
2018.01.12 20:35:09.305924 [ 1679 ] <Debug> SrcViews..inner.TTViewDailyOther (Replicated OutputStream): Wrote block with 300 rows
2018.01.12 20:35:09.356575 [ 46 ] <Debug> SrcViews..inner.TTViewDailyOther (ReplicatedMergeTreeQueue): Pulling 1 entries to queue: log-0005443378 - log-0005443378
2018.01.12 20:35:09.412908 [ 1679 ] <Trace> SrcViews..inner.TTViewDailyOther (Data): Renaming temporary part tmp_insert_20180112_20180112_1108518_1108518_0 to 20180112_20180112_986931_986931_0.
а вот чуть выше - видимо в том же треде про другие вьюшки
2018.01.12 20:35:07.842162 [ 1679 ] <Trace> virtual DB::MergingAndConvertingBlockInputStream::~MergingAndConvertingBlockInputStream(): Waiting for threads to finish
2018.01.12 20:35:07.843464 [ 1679 ] <Trace> InterpreterSelectQuery: FetchColumns -> Complete
2018.01.12 20:35:07.844831 [ 1679 ] <Trace> Aggregator: Aggregating
2018.01.12 20:35:07.845848 [ 1679 ] <Trace> Aggregator: Aggregation method: concat
...
2018.01.12 20:35:08.044220 [ 1679 ] <Trace> Aggregator: Aggregated. 386881 to 31957 rows (from 666.505 MiB) in 0.199 sec. (1940853.057 rows/sec., 3343.635 MiB/sec.)
2018.01.12 20:35:08.044336 [ 1679 ] <Trace> Aggregator: Merging aggregated data
2018.01.12 20:35:08.137043 [ 1679 ] <Debug> SrcViews..inner.TTViewDailyAdv (Replicated OutputStream): Wrote block with 31957 rows
...
2018.01.12 20:35:08.248910 [ 1679 ] <Trace> SrcViews..inner.TTViewDailyAdv (Data): Renaming temporary part tmp_insert_20180112_20180112_63248_63248_0 to 20180112_20180112_5151_5151_0.
2018.01.12 20:35:08.408776 [ 41 ] <Debug> SrcViews..inner.TTViewDailyAdv (ReplicatedMergeTreeQueue): Pulling 1 entries to queue: log-0000688941 - log-0000688941
2018.01.12 20:35:08.410417 [ 1679 ] <Trace> virtual DB::MergingAndConvertingBlockInputStream::~MergingAndConvertingBlockInputStream(): Waiting for threads to finish
2018.01.12 20:35:08.411557 [ 1679 ] <Trace> InterpreterSelectQuery: FetchColumns -> Complete
2018.01.12 20:35:08.412672 [ 1679 ] <Trace> Aggregator: Aggregating
2018.01.12 20:35:08.413405 [ 1679 ] <Trace> Aggregator: Aggregation method: concat
...
2018.01.12 20:35:08.564700 [ 1679 ] <Trace> Aggregator: Aggregated. 386881 to 5813 rows (from 666.505 MiB) in 0.152 sec. (2545816.836 rows/sec., 4385.846 MiB/sec.)
2018.01.12 20:35:08.564853 [ 1679 ] <Trace> Aggregator: Merging aggregated data
2018.01.12 20:35:08.587263 [ 1679 ] <Debug> SrcViews..inner.TTViewDailyBidders (Replicated OutputStream): Wrote block with 5813 rows
2018.01.12 20:35:08.694259 [ 1679 ] <Trace> SrcViews..inner.TTViewDailyBidders (Data): Renaming temporary part tmp_insert_20180112_20180112_63248_63248_0 to 20180112_20180112_5151_5151_0.