
antuan
13.10.2018
08:48:51
Модель и серийник*

Денис
13.10.2018
08:50:49
оно всё уникально, однако имя радио моежт быть каким угодно, но и его пишет нормально, когда оно одинаково, если отличается макадрес устройтсва. логика подсказывала, что по аналогии с MySQL все должно работать хорошо, если есть один уникальный столбец. это и смутило. нужно больше читать документов по данному продукту
к тому же, переделал проблемную таблицу на серийник и айпи, что по сути тоже уникально только в случае серийника, а в случае повторения айпи, будет коллизия, что не страшно.
уже 406 строк :) спасибо, @antonio_antuan, огромное за подсказку!

Google

Денис
13.10.2018
08:53:05

Maxim
13.10.2018
09:03:38
не за что ,я тоже подумал что там агрегация .

GithubReleases
13.10.2018
15:26:31
yandex/ClickHouse was tagged: v18.14.8-stable
Link: https://github.com/yandex/ClickHouse/releases/tag/v18.14.8-stable
Release notes:
v18.14.8-stable

Иван
13.10.2018
17:03:24
Обновился до последней версии, поломались словари, кх не стартует(похоже что из-за таблиц с движком словарь).
Cannot create external dictionary Code: 409 DB::Exception: clickhouse binary (clickhouse) is not found

terry
13.10.2018
17:08:33

Иван
13.10.2018
17:10:14
в последней версии починили odbc, мне это критично

Denis
13.10.2018
17:14:19
умвр (брал тут http://repo.yandex.ru/clickhouse/deb/stable/main/)
ClickHouse client version 18.14.8.
Connecting to localhost:9000.
Connected to ClickHouse server version 18.14.8 revision 54409.
а словарь смотрит на тот же сервер (localhost:9000)?

Иван
13.10.2018
17:23:12
словарь смотрит на табличку в SQL Server

Denis
13.10.2018
17:27:32
т.е. это odbc, я подумал речь про <source> <clickhouse>

Иван
13.10.2018
17:31:05
<source> <odbc>

Anton
13.10.2018
17:58:27
Добрый день, есть ли какой-то простой вариант разрешить кликхаусу принимать дату вида "2018-10-13T17:46:23.000000Z" ?
(fluentbit другие не умеет)

Denis
13.10.2018
18:17:58
* parseDateTimeBestEffort
* регуляками или substr отрезать лишнее
SELECT parseDateTimeBestEffortOrZero('2018-10-13T17:46:23.000000Z')
┌─parseDateTimeBestEffortOrZero('2018-10-13T17:46:23.000000Z')─┐
│ 2018-10-13 17:46:23 │
└──────────────────────────────────────────────────────────────┘

Google

Alexander
13.10.2018
21:18:04

Иван
13.10.2018
21:19:55
Ммм, не очень понимаю, кх запустить с этим ключем?

Alexander
13.10.2018
21:24:06

Иван
13.10.2018
21:30:07

Alexander
13.10.2018
21:30:36
Это ворнинги вроде, не страшно

Иван
13.10.2018
21:32:50
вот полный листинг

Alexander
13.10.2018
21:35:34
Да, все запустилось, сообщения в конце не страшные.
Похоже глупый баг в odbc-словарях( исправим.

Иван
13.10.2018
21:38:09
ох уж этот odbc многострадальный(

Alexander
13.10.2018
21:41:14
Пока можно запускать по полному пути, если очень нужно.

Рулон
13.10.2018
22:15:01
Рулон Обоев:
Реклама это беспланый хостинг
Да, добавление руками,
Я добавлю формы ввода
Просто я вижу сайт как точку сбора вопросов и сырых ответов, чтобы контрибьюторам было проще. Основной ресурс это должен быть Faq на гитхабе
Я перешёл на другой хостинг без рекламы и добавил возможность самим добавлять вопросы и ответы ?

Mах
14.10.2018
00:43:18
Всем ночи.
Кто что может сказать по поводу запуска КХ на старых процессорах (без поддержки SSE 4.2)?
Нашёл такую ссылку (https://github.com/yandex/ClickHouse/issues/1170), где говорится, что КХ нужно собрать самому и ссылка на инструкцию (ссылка битая). Данный способ ещё актуален?
В основной документации тоже вроде как должна быть ссылка, но её нет.

Alexey
14.10.2018
00:48:17

Mах
14.10.2018
07:08:24
Спасибо!

Kirill
14.10.2018
08:08:11

Иван
14.10.2018
08:22:46

Alexander
14.10.2018
08:38:52

Иван
14.10.2018
08:40:18
внешние словари, но как я понимаю они по odbc ходят

Alexander
14.10.2018
08:42:50
> Вчера не работали словари odbc, сегодня смотрю в system.dictionaries а там стало пусто.
Сейчас кликхаус запускается, потому что абсолютный путь к бинарнику при старте указан или оно само собой как-то запустилось?

Google

Alexander
14.10.2018
08:44:27
В идеале бы сделать issue на гитхабе с описанием.

Иван
14.10.2018
08:49:48
Само сабой, сейчас я еще поэксперементирую, если не заработает заведу ишью
Как получилось обновится в итоге:
1. Дроп всех таблиц с движком Dictionary которые используют словари с odbc.
2. Обновляемся и получаем ошибку clickhouse binary (clickhouse) is not found в словарях.
3. Выполняем любой запрос вида select * from odbc('DSN=dsn;', table), после этого волшебным образом все начинает работать.
4. Пересоздаем таблицы.
Что обнаружил в процессе:
1. Перестало работать указание схемы (писал выше)
2. Тип Date через odbc приходят как 0000-00-00, DateTime работает нормально.

Alexander
14.10.2018
09:50:31
Спасибо, будем разбираться

Nikita
14.10.2018
11:04:54
привет, а можно ли получить консультацию про подключение tableau к CH на маке?
1 установил odbc-драйвер как написано тут: https://github.com/yandex/clickhouse-odbc/blob/master/MACOS.md
2 конфиг прописал, правда не в ~/.odbc.ini, а тут /Library/ODBC/odbc.ini, мой odbc-менеджер его увидел
3 создал с этим драйвером system dsn
4 в табло подключение указываю так:
после Sign In никак сообщение нет, но при поытке выполнить запрос говорит bad connection
чяднт?

Александр
14.10.2018
11:15:05
Эм, драйвер подставил в выражение FORMAT что-то свое
И это "свое" = ODBCDriver2, но я так полагаю, что в КХ такого формата выдачи результата нет

Nikita
14.10.2018
11:17:01
что можно сделать?

Denis
14.10.2018
11:21:52
чяднт?
По ссылке написано If you want to connect to new clickhouse server (versions 18.10.3 and later):
brew install https://raw.githubusercontent.com/proller/homebrew-core/chodbc/Formula/clickhouse-odbc.rb
If you want to connect to old clickhouse server (versions before 18.10.3):
brew install https://raw.githubusercontent.com/proller/homebrew-core/chodbcold/Formula/clickhouse-odbc.rb

Nikita
14.10.2018
11:24:28
у меня 18.5.54400, поставил новый
мм..

Ivan
14.10.2018
16:05:59

Nikita
14.10.2018
17:25:46


Vladislav
14.10.2018
17:50:34
Привет А нам везет на новой версии.
После обновления с 1.1.54327 до 18.12.14 перестали работать запросы по колонке, к которой раньше делали clear column
ch1 ? SELECT min(date) from Stats where toYear(date)=2018 and notEmpty(processlist) limit 1;
SELECT min(date)
FROM Stats
WHERE (toYear(date) = 2018) AND notEmpty(processlist)
LIMIT 1
Received exception from server (version 18.12.17):
Code: 10. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Not found column processlist in block. There are only columns: date.
0 rows in set. Elapsed: 1.198 sec.
ch1 ? SELECT min(date) from Stats where date=today() and notEmpty(processlist) limit 1;
SELECT min(date)
FROM Stats
WHERE (date = today()) AND notEmpty(processlist)
LIMIT 1
↓ Progress: 213.03 thousand rows, 229.93 MB (187.17 thousand rows/s., 202.02 MB/s.) ████████████▏ 6%Received exception from server (version 18.12.17):
Code: 241. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Memory limit (for query) exceeded: would use 13.18 GiB (attempt to allocate chunk of 4294967296 bytes), maximum: 9.31 GiB: (while reading column processlist): (while reading from part /var/lib/clickhouse/data/projectName/Stats/20181009_20181012_26400_28006_5/ from mark 99 with max_rows_to_read = 65536).
0 rows in set. Elapsed: 1.739 sec. Processed 213.03 thousand rows, 229.93 MB (122.50 thousand rows/s., 132.22 MB/s.)
ch1 ? SELECT min(date) from Stats where date=today() and notEmpty(processlist);
SELECT min(date)
FROM Stats
WHERE (date = today()) AND notEmpty(processlist)
← Progress: 196.61 thousand rows, 212.46 MB (645.30 thousand rows/s., 697.33 MB/s.) 5%Received exception from server (version 18.12.17):
Code: 241. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Memory limit (for query) exceeded: would use 12.16 GiB (attempt to allocate chunk of 4294967296 bytes), maximum: 9.31 GiB: (while reading column processlist): (while reading from part /var/lib/clickhouse/data/projectName/Stats/20181009_20181012_26400_28006_5/ from mark 119 with max_rows_to_read = 65536).
0 rows in set. Elapsed: 0.827 sec. Processed 196.61 thousand rows, 212.46 MB (237.74 thousand rows/s., 256.91 MB/s.)
ch1 ? select processlist from Stats where date=today() and notEmpty(processlist) limit 1;
SELECT processlist
FROM Stats
WHERE (date = today()) AND notEmpty(processlist)
LIMIT 1
....
Результат
....
1 rows in set. Elapsed: 0.304 sec. Processed 8.19 thousand rows, 5.92 MB (26.90 thousand rows/s., 19.44 MB/s.)
Стуктура примерно такая
CREATE TABLE Stats (
date Date,
dateTime DateTime,
processlist Array(String),
programlist Array(String)
+ еще штук 20 колонок, в том числе вычисляемых, но ни с date, ни с processlist\ programlist не связаны
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/projectName/{shard}/Stats', '{replica}', date,
(date),
8192)

Google

Denis
14.10.2018
18:00:04
можно попробовать optimize final для той партиции которой сделали clear, тогда колонка создастся если еще нет.

Vladislav
14.10.2018
18:01:41
А почему memory limit у min(date) случается?
Хотя, нет, это у processlist, но для нее нет агригирования, только проверка что не пустая

Denis
14.10.2018
18:03:56
всей таблице не надо. Сколько там записей? Большая таблица?

Vladislav
14.10.2018
18:05:28
4 лярда.
2ТБ на диске, но большая часть это processlist\programlist, для которых раз в полгода делаем clear column

Denis
14.10.2018
18:08:24
а что с optimize move to prewhere? если выключить ?

Vladislav
14.10.2018
18:09:07
А без рестарта ноды можно переключить?

Denis
14.10.2018
18:09:20
SELECT min(date) from Stats where date=today() and notEmpty(processlist) limit 1 settings optimize_move_to_prewhere=0;


Vladislav
14.10.2018
18:10:02
ch1 ? SELECT min(date) from Stats where date=today() and notEmpty(processlist) limit 1 settings optimize_move_to_prewhere=0;
SELECT min(date)
FROM Stats
WHERE (date = today()) AND notEmpty(processlist)
LIMIT 1
SETTINGS optimize_move_to_prewhere = 0
↘ Progress: 311.30 thousand rows, 340.65 MB (309.19 thousand rows/s., 338.35 MB/s.) ████████▋ 4%Received exception from server (version 18.12.17):
Code: 241. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Memory limit (for query) exceeded: would use 9.63 GiB (attempt to allocate chunk of 1073741824 bytes), maximum: 9.31 GiB: (while reading column processlist): (while reading from part /var/lib/clickhouse/data/projectName/Stats/20181014_20181014_32715_33209_4/ from mark 179 with max_rows_to_read = 8192).
0 rows in set. Elapsed: 1.162 sec. Processed 311.30 thousand rows, 340.65 MB (267.83 thousand rows/s., 293.09 MB/s.)
ch1 ? select count() from Stats where date=today();
SELECT count()
FROM Stats
WHERE date = today()
┌─count()─┐
│ 6814863 │
└─────────┘
1 rows in set. Elapsed: 1.147 sec. Processed 6.82 million rows, 13.63 MB (5.94 million rows/s., 11.89 MB/s.)


Denis
14.10.2018
18:12:46
ну наверное можно попробовать max_bytes_before_external_group_by поставить в 10 ГБ
типа settings optimize_move_to_prewhere=0,max_bytes_before_external_group_by=10000000000


Vladislav
14.10.2018
18:14:49
ch1 ? SELECT min(date) from Stats where date=today() and notEmpty(processlist) limit 1 settings optimize_move_to_prewhere=0,max_bytes_before_external_group_by=100000000000;
SELECT min(date)
FROM Stats
WHERE (date = today()) AND notEmpty(processlist)
LIMIT 1
SETTINGS optimize_move_to_prewhere = 0, max_bytes_before_external_group_by = 100000000000
↙ Progress: 229.38 thousand rows, 247.79 MB (325.06 thousand rows/s., 351.16 MB/s.) ██████▎ 3%Received exception from server (version 18.12.17):
Code: 241. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Memory limit (for query) exceeded: would use 9.63 GiB (attempt to allocate chunk of 1073741824 bytes), maximum: 9.31 GiB: (while reading column processlist): (while reading from part /var/lib/clickhouse/data/projectName/Stats/20181014_20181014_33210_33333_3/ from mark 0 with max_rows_to_read = 8192).
0 rows in set. Elapsed: 0.801 sec. Processed 229.38 thousand rows, 247.79 MB (286.36 thousand rows/s., 309.35 MB/s.)


Lesha
14.10.2018
18:15:26
Хай гайз, а могу я в КХ хранить Decimal а при селекте конверить его в string? Хочу агрегации в decimal считать, а в гошечке читать строку

Denis
14.10.2018
18:15:29
а если 5 ?

Vladislav
14.10.2018
18:15:50
пробвал еще 0 добавить - тоже самое

Denis
14.10.2018
18:16:02

Google

Vladislav
14.10.2018
18:17:18
все тоже самое

Denis
14.10.2018
18:20:52
все тоже самое
аа, это не из-за min.
я не заметил (while reading column processlist)

Vladislav
14.10.2018
18:21:14
1.6G /var/lib/clickhouse/data/projectName/Stats/20181009_20181013_26400_31567_6/processlist.bin
размер колонки в этом куске

Denis
14.10.2018
18:22:26
размер надо system columns смотреть uncompressed , но по идее влиять он вообще не должен

Vladislav
14.10.2018
18:24:00
data_uncompressed_bytes=1004144665531
но я хотел посмотреть именно в курсе на котором падает
думал вдруг туда попало больше 10гб значение(что конечно физически невозможно, но все же)
да и до обновления КХ - все работало