@clickhouse_ru

Страница 577 из 723
Michal
04.07.2018
12:02:55
GROUP BY ifNull(x,0)

Николай
04.07.2018
12:04:24
Спасибо

Еще вроде можно GROUP BY or(0, x) щас нашел

Tima
04.07.2018
12:07:53


Google
Evgeny
04.07.2018
12:21:18
потому что данные в этих таблицах постоянно обновляются
А почему не хотите сделать таблицы которые будут наполняться новыми данными, а потом два ренейма?

antuan
04.07.2018
12:32:54
А почему не хотите сделать таблицы которые будут наполняться новыми данными, а потом два ренейма?
Не очень понял смысл этого священнодейства) Есть же уже словари нормально работающие.

Evgeny
04.07.2018
12:33:49
Ну я так буду решать проблему с массивами. А у вас, я так понял, есть проблема с поисками в словарях?

antuan
04.07.2018
12:42:46
нет, у нас потенциально есть проблема с размером flat-словаря, есть вероятность, что рано или поздно один из них вырастет до 500к записей

antuan
04.07.2018
12:44:58
а, понял :)

Ну если речь про поиск внутри массивов - пока предложенный мной вариант нас устраивает

Arkady
04.07.2018
12:49:24
Привет! Сталкивался ли кто или знаете причину такого? На всех машинах кластера схема одинаковая. Делаю запрос SELECT ... FORMAT JSON.Запрос делается в distributed таблицу. В ответе меня интересует поле rows_before_limit_at_least. Странность: Один из серверов отдает 0 в этом поле. Все остальные сервера отдают одинаковое значение не 0. Полезные данные - строки результата - совпадают на всех серверах.

Tima
04.07.2018
12:50:01
Как оказалось, репликация идёт по отдельному порту 9009. Пробросил его и репликация пошла

Michal
04.07.2018
12:51:02
угу. И там к тому же протокол HTTP. Т.е. он на этом порту запускает HTTP сервер, а в зукипере публикует "адреса" партиций которые оттуда можно (и нужно) скачать.

Bogdans
04.07.2018
14:06:26
привет! мы делаем эксперименты в рамках clickhouse базы и разных BI тулзов. сейчас пытаемся подключить BI tool которые умеет работать с MySQL базок к Clickhouse базе. Поставили ProxySQL, который умеет переписывать синтаксис с MySQL на Clickhouse. Пока что оно заводится, держит connection, и в целом работает. Столкнулись пока что только с одним косяком - запросы типа SELECT col1 FROM table GROUP BY 1 не проходят. Rewrite rules в ProxySQL под такое писать не хотелось бы, потому что жесть. Есть ли в обозримом будущем в Clickhouse базе планы на поддержку GROUP BY 1,2 / ORDER BY 1,2 запросов?

Egor
04.07.2018
14:19:29
всем привет. Запрос SELECT * FROM track_log t WHERE (track_id=462739066) AND (date='2018-05-20') на 1.1.54236-4.el7 работает мгновенно. Переехали на 1.1.54385-1.el7, там этот запрос 8 секунд работает. Что может быть, что посмотреть? Базу переливали Select ... format native | insert into

Google
Alexey
04.07.2018
14:20:47
киньте структуру старой и новой таблиц

а также селект из клиента весь, с выводом доп.инфы

Egor
04.07.2018
14:22:49
а структура разве разная? show create table — этой командой создал на новом сервере CREATE TABLE trk.track_log ( date Date DEFAULT toDate(unix_timestamp), unix_timestamp DateTime, track_id Int64, repeat_track_id Int64, campaign_id Int32, split_from_campaign_id Int32, source_id Int32, offer_id Int32, ip String, params String, status Int32, redirect_url String, price_rub Float32, price Float32, currency_id Int32, user_agent String, url String, fraudscore_status String, referrer String, device_locale String) ENGINE = MergeTree(date, (date, track_id), 8192)

1 rows in set. Elapsed: 7.698 sec. Processed 73.73 thousand rows, 51.42 MB (9.58 thousand rows/s., 6.68 MB/s.) 1 rows in set. Elapsed: 0.016 sec. Processed 8.19 thousand rows, 5.28 MB (498.23 thousand rows/s., 321.26 MB/s.)

Alexey
04.07.2018
14:29:17
какой-то печальный сервер, 6.68 MB/s

таблицы-то точно одинаковые? Processed 73.73 thousand rows и Processed 8.19 thousand rows

Egor
04.07.2018
14:30:01
в том-то и дело

Wolf
04.07.2018
14:30:04
ну у вас чтение в 15 раз медленее

Egor
04.07.2018
14:30:12
что сервер совершенно не печальный. 48тредов, SSD

Wolf
04.07.2018
14:30:35
ну что то не так явно с чтением проверьте диск

Alexey
04.07.2018
14:31:49
а почему у вас индекс такой (date, track_id), а не (track_id, date), как в доке советуют

перелейте в (track_id, date), посмотрите, будет ли разница, для интереса

Egor
04.07.2018
14:33:09
щас диск попробую по hdparmить

[root@gala3 etc]# hdparm -t /dev/nvme0n1 /dev/nvme0n1: Timing buffered disk reads: 4414 MB in 3.00 seconds = 1470.86 MB/sec

буфферед конечно ни о чём. но всё же не 6mb/s

регресс из-за какого-то сильного бага в этой версии исключён?

Alexey
04.07.2018
14:39:03
у многих КХ на продакшене, тут бы ор стоял

Egor
04.07.2018
14:41:44
ну явно что-то не то с КХ

Tima
04.07.2018
14:41:55
таблицы-то точно одинаковые? Processed 73.73 thousand rows и Processed 8.19 thousand rows
+1. Явно есть какое-то несоответствие. Сам запрос прям к trk.track_log делается? Случайно не к какой-нибудь Disturbed-таблицы поверх trk.track_log?

Egor
04.07.2018
14:42:24
да не. всё отлично работало на старом сервере

Google
Egor
04.07.2018
14:42:28
структуру данных никто не менял

Wolf
04.07.2018
14:47:30
А лучше просто скопируйте партиции

Egor
04.07.2018
14:47:55
уже не получится, прод-данные со вчера льются в это новое глючащее место

Alexey
04.07.2018
14:52:50
Так не только кх новый, но и сервер под ним новый?

Странный ssd конечно

Egor
04.07.2018
14:53:30
да, перееххали на новый сервер, на него же новая версия КХ прилетела

Alexey
04.07.2018
14:53:33
На тысячах строк оно должно работать моментально

Victor
04.07.2018
14:53:34
может там рейд ребилдится по этому IO в ноль?

Egor
04.07.2018
14:53:40
неа

# hdparm -t /dev/md1 /dev/md1: Timing buffered disk reads: 4314 MB in 3.00 seconds = 1437.32 MB/sec с рэйда тоже нормально

iowait ваще нулевой

Wolf
04.07.2018
15:03:48
Обновите версию на старом просто и сразу будет ясно проблема в версии или сервере

Egor
04.07.2018
15:04:03
кстати да

Иван
04.07.2018
15:15:39
Привет, кто скрещивал КХ с superset, может сталкивались с ошибкой `'str' object has no attribute 'db_type'` когда подключаешь базу. Когда жмешь тест пишет ОК, но потом выкидывает с ошибкой.

Egor
04.07.2018
15:17:17
докладаю. в новой версии регресса нет. на новом сервере КХ отожрал слишком много памяти, 122G virt, 75G RES. после мучительного рестарта работает быстро

Tima
04.07.2018
15:17:36
Привет, кто скрещивал КХ с superset, может сталкивались с ошибкой `'str' object has no attribute 'db_type'` когда подключаешь базу. Когда жмешь тест пишет ОК, но потом выкидывает с ошибкой.
Я сталкивался что у него были проблемы с версий какого-то python-модуля, из-за чего при создании конекта к КХ падало (не с этой ошибкой). Покажи настройку подключения к КХ

Egor
04.07.2018
15:18:25
что за утечка — непонятно

Se
04.07.2018
15:19:44
подскажите как мониторить статус репликации кликхауса?

Google
Diomid
04.07.2018
15:31:22
Se
04.07.2018
15:31:50
вот тоже смотрю. в документации хороший запрос приведен

https://clickhouse.yandex/docs/ru/system_tables/system.replicas/

Diomid
04.07.2018
15:32:25
Tima
04.07.2018
15:35:16
все по умолчанию, там нужно что то еще прописывать кроме clickhouse://localhost:8123/ ?
Только что попробовал создать коннект - такая же ошибка

Иван
04.07.2018
15:36:21
Просто много людей писало что у них все работает, а тут бац, и чет не гуглится. Явно что то делаю не так.

ставил на ubunte 18.04 может там что наломали

Tima
04.07.2018
15:37:34
Просто много людей писало что у них все работает, а тут бац, и чет не гуглится. Явно что то делаю не так.
неа, я уже ловил на разных сборках (периодически обновляю контейнер) самые разные глюки

Diomid
04.07.2018
15:44:38
Скажите, а кто-нибудь натравливал на clickhouse-server.log обычный системный logrotate? Хочется логи по сутками все-таки разбивать.

Wolf
04.07.2018
15:51:37
А в чем проблема?

По дефолту в убунту вроде логротейтятся

Diomid
04.07.2018
15:53:11
По дефолту он сам за ротейт отвечает. По размеру.

Wolf
04.07.2018
15:57:52
а ну может быть

Egor
04.07.2018
16:33:00
граждане, особенно разработчики.. нет ли в 1.1.54385-1.el7 проблемы с жором памяти?

час поработал после рестарта, опять память выжрал и тормозит

Nikolai
04.07.2018
16:54:47
граждане, особенно разработчики.. нет ли в 1.1.54385-1.el7 проблемы с жором памяти?
пока не было замечено. память может тратиться по многим причинам: кеши, словари, мержи. может просто удерживаться аллокатором про запас.

Egor
04.07.2018
16:57:57
пока не было замечено. память может тратиться по многим причинам: кеши, словари, мержи. может просто удерживаться аллокатором про запас.
вот он после рестарта первое время работал очень быстро, пока памяти много не сожрал. потом сожрал 70гиг и начал тормозить на селектах

можно ли откатить версию на 1.1.54236-4.el7 обратно, или хранилище обратно не совместимо?

Nikolai
04.07.2018
17:08:17
можно

Egor
04.07.2018
17:10:45
а есть где-нибудь самый свежак в RPM-пакетах?

Google
Egor
04.07.2018
17:11:08
щас это: https://packagecloud.io/altinity/clickhouse/el/7/$basearch не самый свежак

вопрос про репу снят, в личке добрый человек направил на путь истинный

нет, вопрос не снят. пытаюсь поставить из Яндекс-репы yum'ом: Transaction check error: файл / из устанавливаемого пакета clickhouse-server-1.1.54388-2.noarch конфликтует с файлом из пакета filesystem-3.2-21.el7.x86_64 файл /lib из устанавливаемого пакета clickhouse-server-1.1.54388-2.noarch конфликтует с файлом из пакета filesystem-3.2-21.el7.x86_64 файл /usr/bin из устанавливаемого пакета clickhouse-server-1.1.54388-2.noarch конфликтует с файлом из пакета filesystem-3.2-21.el7.x86_64 файл /etc/init.d из устанавливаемого пакета clickhouse-server-1.1.54388-2.noarch конфликтует с файлом из пакета chkconfig-1.7.4-1.el7.x86_64

это я что-то не так делаю?

nikoinlove
04.07.2018
17:32:11
а при удалении он тебе / удалит, интересно?)

Kirill
04.07.2018
17:46:41
т.е. в сессии перед insert select нужо set max_block_size = 8192

можно ли откатить версию на 1.1.54236-4.el7 обратно, или хранилище обратно не совместимо?
вы количество одновременных мержей временно уменьшите, он данные помержит спокойно и все будет ОК

Kirill
04.07.2018
18:02:37
Для реплицируемых таблиц max_replicated_merges_in_queue в конфиге для merge_tree секции и background_pool_size там по дефолту по 16

https://github.com/yandex/ClickHouse/blob/4535f96148da1fe6da9c9c7061efe1ab61c11de4/dbms/src/Interpreters/Settings.h#L58

Для применения этих настроек нужен рестарт сервера КХ

Egor
04.07.2018
18:04:42
Спасибо, завтра попробую

Kirill
04.07.2018
18:20:46
Tima указание max_block_size/max_insert_block_size перед insert into select лучше взять за привычку, в зависимости от того как вы храните данные и какие они можно сильно уйти по памяти, возможно это нужно сделать в самом КХ или как-то адаптивно просчитывать его и размер мержей при этом @milovidov_an ?

ну и max_threads тоже в 1

Страница 577 из 723