
Alex
20.09.2018
13:12:25
какие-то эксепшены там есть, но не вижу что-то про remote_servers или cluster

Kirill
20.09.2018
13:14:35

Michal
20.09.2018
13:15:25

Alex
20.09.2018
13:17:22
кажется всё так как ожидается
https://pastebin.com/uCnhNmNZ

Google

Ivan
20.09.2018
13:17:34
remote-servers а нужно remote_servers

Alex
20.09.2018
13:17:53
ммм... вотоночё!
ща попробую
Ну кажется это помогло, теперь оно просто зависает)

Ivan
20.09.2018
13:28:32

Alex
20.09.2018
13:29:53
Странно, каким образом до этого данные реплицировались нормально.

Ivan
20.09.2018
13:30:38
репликация по 9009, а вот запросы по 9000 я так понял

Alex
20.09.2018
13:33:00
А в <remote_servers> какой порт нужно указывать? 9000 или 9009?
Ага! Кажется я вижу косяк.
Всем большое спасибо за помощь!))

Sergey
20.09.2018
13:39:45
Вопрос. Какую визуализацию посоветуете для аналитики… Чтобы можно было дашборды собирать, а люди, ничего не знающие об sql могли бы хотя бы группировки сами добавлять. Некоторый конструктор.
Что попробовал:
1. Tabix
2. Grafana
3. Superset
Superset ещё потестирую, но есть ощущение, что не про то всё… Может у кого есть чудо-опыт с чудо-визуализацией?

Lex
20.09.2018
13:41:07

Алексей
20.09.2018
13:43:01

Slava
20.09.2018
13:43:10

Google

Alex
20.09.2018
13:44:42
redash
tableau если деньги есть

Алексей
20.09.2018
13:52:24
redash
а как он в сравнении с Super Set ?

Alex
20.09.2018
13:52:58
super set не юзал

Sergey
20.09.2018
13:57:24
redash
Менеджер своими руками сможет срез сделать?

Vladimir
20.09.2018
13:58:18
мы зеппелин используем, табикс мрет у нас, видимо из-за того что таблиц много

Alex
20.09.2018
13:59:20
У нас его аналитики используют и очень довольны. А аналитики они достаточно грамотные. И sql умеют делать и доки по редашу сами читают. Как он для менеджеров я хз.

Konstantin
20.09.2018
14:05:26
Power bi по odbc. Но я пишу к нему запросы руками

Michal
20.09.2018
14:29:39

Sergey
20.09.2018
14:31:41
И вот им прямо очень не хватает чего-то удобного и интуитивно понятного

Tima
20.09.2018
14:33:49

Konstantin
20.09.2018
14:35:04

Иван
20.09.2018
14:37:10

Tatiana
20.09.2018
14:39:13
Привет,
Возможно ли сделать drop/detach partition по name?
Т.е. есть, например, такие записи в system.parts, у которых значения в partition и partition_id одинаковые, но я хочу дропнуть только одну из них.
Как я понял из доков нужно указывать именно значение из колонки partition, но мб можно как-то дропнуть по name?
Если очень надо, можно попробовать alter table detach partition, потом удалить на файловой системе тот парт, который вам не нравится, и сделать alter table attach partition

Mikhail
20.09.2018
15:31:22
Привет.
Кто-нибудь создавал материализованные представления с удалённым источником данных (from remote(....))? Такой функционал поддерживается?
Как по-другому можно относительно регулярно передавать данные между нодами для агрегации во вьюшку?

Andrey
20.09.2018
16:07:23
Ребята, привет. Не подскажете в какую сторону копать? Обновили сервера до последней версии и теперь ОЧЕНЬ медленно идеут мержи частей для реплицируемых таблиц. Причем на одном сервере все норм, а на втором еле-еле.

Wolf
20.09.2018
16:08:24
Я просто сегодня обновил до последней версии стаж и завтра собираюсь прод

Andrey
20.09.2018
16:09:11

Google

Andrey
20.09.2018
16:09:22
И куски сливаются, но очень медленно.

prll
20.09.2018
16:11:08
а нет многократных cancelled и попыток скачать одно и тоже?

Andrey
20.09.2018
16:14:44

Vitaliy
20.09.2018
16:20:35

Sergey
20.09.2018
16:23:07
Единственное, с лицензией неясно

Vitaliy
20.09.2018
16:34:49
если что спрашивайте в личке, я разработчик этой штуки

Sergey
20.09.2018
16:35:52
https://www.nrecosite.com/pivotdata_service.aspx
Похожи чем-то во многом

molo4ko
20.09.2018
16:59:34
не дождался апдейтов к clickhouse-exporter, вот билд моего форка, который работает с нужными (новыми) версиями
latest должен работать, но еще планирую тегать все версии, начиная с 18.12.14 на всякий
https://hub.docker.com/r/tkroman/clickhouse_exporter_fresh/
если что, делал по гуглежу, пожелания и исправления приветствуются)


ilya
20.09.2018
17:26:46
всем привет!
может кто подскажет, поднял clickhouse_server, в config.xml прописал путь до словарей
<dictionaries_config>dictionary.xml</dictionaries_config>
создал dictionary.xml в котором описал словари, запускаю и получаю ошибку
19.09 16:37:23.913 [debug] *710720: genrepd.Engine: running CH query 301
19.09 16:37:23.915 [debug] *710720: genrepd.Engine: CH error: Poco::Exception. Code: 1000, e.code() = 0, e.displayText() = Exception: Connections to all replicas failed: db_test@localhost:3600 as user root, e.what() = Exception
конфиг словарей примерно такой
<dictionary>
<name>inapp_store_id</name>
<source>
<mysql>
<host>localhost</host>
<port>3600</port>
<db>db_test</db>
<table>table_2</table>
<user>root</user>
<password></password>
<where>id in (SELECT id from table)</where>
</mysql>
</source>
<lifetime>
<min>3000</min>
<max>3600</max>
</lifetime>
<layout><complex_key_hashed /></layout>
<structure>
<key>
<attribute><name>store_id</name><type>String</type></attribute>
</key>
<attribute><name>id</name><type>UInt64</type><null_value>0</null_value></attribute>
</structure>
</dictionary>


Aleksandr
20.09.2018
17:32:27
В лог файле же написано что КХ не смог подключится к мускулу
С такими данными
Connections to all replicas failed: db_test@localhost:3600 as user root
Проверьте данные для подключения в базе MySQL

ilya
20.09.2018
17:33:36


Denis
20.09.2018
18:00:10

ilya
20.09.2018
18:00:38
разобрался, оказалось адрес и порт не правильный указывал))

Google

Evgeny
20.09.2018
19:57:45
Для мускля, неплохое решение - maxscale. Не надо париться куда "смотрит" линк

Kirill
20.09.2018
23:47:46

papa
20.09.2018
23:50:14
картинки не грузятся?

Kirill
20.09.2018
23:50:55
причём стабильно

papa
20.09.2018
23:52:32
https://clickhouse.yandex/docs/ru/images/row_oriented.gif
https://clickhouse.yandex/docs/ru/images/column_oriented.gif

Kirill
20.09.2018
23:52:45
а, там просто src="#" почему-то

papa
20.09.2018
23:53:50
а у меня точно такие же картинки, но показываются.

Kirill
20.09.2018
23:54:01

papa
20.09.2018
23:54:56
нет, я тут нашел
https://clickhouse.yandex/docs/ru/

Kirill
20.09.2018
23:55:46

papa
20.09.2018
23:55:52
а там у меня тоже не работает.
выглядит как баг.

Kirill
20.09.2018
23:56:41
вот я и принёс репорт)

papa
20.09.2018
23:56:55
спасибо


Alexander
21.09.2018
06:35:15
Всем привет!
Нашел упоминание проблемы выше несколько раз в разных вариациях, но исправить пока не получается. Помогите, пожалуйста, советом куда копать.
Дано: кластер из трех нод по две реплики, вставка идет через одну ноду (нагрузка маленькая: около 10К в минуту пачками каждые 5 секунд, лежит сейчас по 20Гб на сервер), ZK стоит на отдельной ноде. Нода проработала 5 дней стабильно, после чего начали теряться данные при INSERT. Из симптомов только ошибки в логе ZK (каждые 1-3 минуты):
2018-09-20 16:27:28,211 - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@595] - Got user-level KeeperException when processing sessionid:0x165f7ca87ac0003 type:multi cxid:0x6d9 zxid:0x216628704 txntype:-1 reqpath:n/a aborting remaining multi ops. Error Path:/clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8 Error:KeeperErrorCode = NodeExists for /clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8
По версиям – ZK 3.4.9, самый свежий CH.
Вопрос: как его вывести из этого ступора и форсировать запись данных?
В прошлый раз удалось исправить обновлением всех нод CH, после чего он начал подтягивать пропущенные данные. Причину возникновения проблемы, очевидно, еще придется искать, но на данный момент хочется хотя бы уметь восстанавливать работоспособность.
Спасибо всем и хорошей пятницы ?


Wolf
21.09.2018
06:37:42
ощущение что у вас криво созданы реплики

Alexander
21.09.2018
06:52:13
ощущение что у вас криво созданы реплики
То есть стоит перепроверить и пересоздать ReplicatedMergeTree? Или все таблицы и перелить данные?
Если не трудно, объясните, почему подозрение именно на корректность реплик? Спасибо!

Google

Илья
21.09.2018
07:54:48
подскажите, есть ли оптимальное количество разных строк для LowCardinality ? Ну по типу как с пртициями - не больше нескольких тысяч.

G
21.09.2018
08:12:49
Какая сейчас стабильная версия CH? То что в релизнотах пишется stable отражает действительность? Или на практике сейчас не последний stable стабильный?

Tolya
21.09.2018
08:22:50
Всем привет!
Подскажите, пожалуйста, как правильно организовать архитектуру для таблицы с Distributed движком и двумя нодами?
Нужно ли ставить перед КХ отдельный балансер и обращаться к нему для хорошей производительности?

Semen
21.09.2018
08:57:36
Добрый день.
Имеется сервер Debian 9.4. Версия CH - 18.12.17.
После запуска CH создаю 3 таблицы.
create table a (EventDate Date) ENGINE MergeTree() partition by toYYYYMM(EventDate) order by (EventDate) settings index_granularity=8192;
create table k (EventDate Date) ENGINE=Kafka('kafka:9092', 'a', 'clickhouse', 'JSONEachRow', '', 2);
create materialized view w to a as select * from k;
Все работает нормально ровно до первого перезапуска CH сервера. После этого количество файловых дескрипторов начинает расти каждую секунду до лимита настроек.
В логах ничего подозрительного нет.
Не подскажите в каком направлении копать?


Michal
21.09.2018
09:02:45
А что за браузер?
Всем привет!
Нашел упоминание проблемы выше несколько раз в разных вариациях, но исправить пока не получается. Помогите, пожалуйста, советом куда копать.
Дано: кластер из трех нод по две реплики, вставка идет через одну ноду (нагрузка маленькая: около 10К в минуту пачками каждые 5 секунд, лежит сейчас по 20Гб на сервер), ZK стоит на отдельной ноде. Нода проработала 5 дней стабильно, после чего начали теряться данные при INSERT. Из симптомов только ошибки в логе ZK (каждые 1-3 минуты):
2018-09-20 16:27:28,211 - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@595] - Got user-level KeeperException when processing sessionid:0x165f7ca87ac0003 type:multi cxid:0x6d9 zxid:0x216628704 txntype:-1 reqpath:n/a aborting remaining multi ops. Error Path:/clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8 Error:KeeperErrorCode = NodeExists for /clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8
По версиям – ZK 3.4.9, самый свежий CH.
Вопрос: как его вывести из этого ступора и форсировать запись данных?
В прошлый раз удалось исправить обновлением всех нод CH, после чего он начал подтягивать пропущенные данные. Причину возникновения проблемы, очевидно, еще придется искать, но на данный момент хочется хотя бы уметь восстанавливать работоспособность.
Спасибо всем и хорошей пятницы ?
internal_replication?


Slava
21.09.2018
09:06:10

Tolya
21.09.2018
09:07:43
Посмотрю, спасибо!

Michal
21.09.2018
09:09:30
Чем больше разных значений и чем более случайно они появляются - тем вреднее LowCardinality.
Можете посмотреть этот доклад: https://www.youtube.com/watch?v=rqf-ILRgBdY&t=927s

Alexander
21.09.2018
09:16:03


Michal
21.09.2018
09:28:18
Всем привет!
Нашел упоминание проблемы выше несколько раз в разных вариациях, но исправить пока не получается. Помогите, пожалуйста, советом куда копать.
Дано: кластер из трех нод по две реплики, вставка идет через одну ноду (нагрузка маленькая: около 10К в минуту пачками каждые 5 секунд, лежит сейчас по 20Гб на сервер), ZK стоит на отдельной ноде. Нода проработала 5 дней стабильно, после чего начали теряться данные при INSERT. Из симптомов только ошибки в логе ZK (каждые 1-3 минуты):
2018-09-20 16:27:28,211 - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@595] - Got user-level KeeperException when processing sessionid:0x165f7ca87ac0003 type:multi cxid:0x6d9 zxid:0x216628704 txntype:-1 reqpath:n/a aborting remaining multi ops. Error Path:/clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8 Error:KeeperErrorCode = NodeExists for /clickhouse/tables/2/events/replicas/ch3.sg/parts/20180920_20180920_326441_326473_8
По версиям – ZK 3.4.9, самый свежий CH.
Вопрос: как его вывести из этого ступора и форсировать запись данных?
В прошлый раз удалось исправить обновлением всех нод CH, после чего он начал подтягивать пропущенные данные. Причину возникновения проблемы, очевидно, еще придется искать, но на данный момент хочется хотя бы уметь восстанавливать работоспособность.
Спасибо всем и хорошей пятницы ?
А вы проверяете статус которым отвечает ClickHouse на инсерты? Всегда 200 OK?


Alexander
21.09.2018
09:29:53

Michal
21.09.2018
09:30:40
А пачки данных не идентичны?
И кстати почему вставляете через Distributed? Чтобы шардирование?

Alexander
21.09.2018
09:32:47
Нет, не идентичны, проверял с разными таймстемпами, например (так что не дедупликация).
Да, через Distributed, что бы шардировалось, да.