
Paul
17.09.2018
09:52:16


Michal
17.09.2018
10:00:04
в принципе, ни клик, ни зукипер не предполагается масштабировать автоматически
Это как раз несколько ограничивает такое совсем "облачное" использование КХ, где масштабирование вверх/вниз должно происходить без переконфигурирования и конфигурация кластера / "облака" сильно динамична. В настоящее время КХ требует много "ручного" / "полуручного" конфигурирования, и конфигурацяи должна быть относительно статична. Поэтому всякие там кубернетисы мало что дают.
В идеале конфигурация кластера наверное должна поддерживаться чем-то типа discovery service куда регистрируется каждый новый хост, и тогда автоматически начинает получает получать данные и запросы и подхватывая от соседей данные. В случае если какой-то хост падает / пропадет то куски которые на нём были должны скопироваться на какие-то другие хосты в кластере, чтобы обеспечить нужный replication factor. Но чтобы это нормально работало это должна "нативно" поддерживать сама база.


Denis
17.09.2018
10:05:50
зукипер не может это сделать?

Michal
17.09.2018
10:06:16
@milovidov_an вы не планируете что-то типа этого? ^^ КХ реально крут в процессинге данных, но вот с распределенностью у него не всё гладно. Идеально - это что-то типа кликхаус поверх торрнетов :) Когда части размазываются между участиниками сети в соответствии с представлением сети о том как должны быть "размазаны" данные :)

Google

Denis
17.09.2018
10:06:50
но это только для замены. а увеличить количество нод так не получится...
может, сделать хэш с маской значимых битов? тогда можно будет растить кластер в 2 раза, добавляя бит в маску.

Michal
17.09.2018
10:14:10

Alex
17.09.2018
10:16:51

Michal
17.09.2018
10:17:31
И как теперь быть?
https://clickhouse.yandex/docs/en/query_language/dicts/external_dicts_dict_sources/#example-of-connecting-postgresql

Alex
17.09.2018
10:17:40

Alex
17.09.2018
10:18:46

Michal
17.09.2018
10:18:57
И как теперь быть?
В смысле - попробуйте сконфигурировать DSN в системе, вместо указания драйвера в запросе.

Alex
17.09.2018
10:20:16
Так я это уже сделал. Всё работает, но очень медленно.
Кликхаус достаёт 100 строчек больше минуты, а через системный isql всё мгновенно

Michal
17.09.2018
10:21:50

Vasilij
17.09.2018
10:23:29

Alex
17.09.2018
10:24:06
хм..
ок, спс!

Google

Denis
17.09.2018
10:26:28
но почему? постгря же умеет лимит обрабатывать

Michal
17.09.2018
10:29:42

Alex
17.09.2018
10:34:56
Семантика запроса такая. odbc - табличная функция, которая возвращает поток данных. Чтобы запрос пробрасывался в нижележащий движок, нужна функция, в которую будет пробрасываться целиком запрос

Michal
17.09.2018
10:38:11
Хм. Интересная штуковина - кликхаус позволяет создавать/хранить состояния аггрегатных функций с -If. Только я не понимаю 1) зачем 2) как это потом использовать? :) Контекст: как оказалось между groupArrayStateIf и groupArrayIfState есть большая разница. Второе создает тип данных AggregateFunction(groupArrayIf, String, UInt8), на которым не понятно как сделать Merge. :)

Alexey
17.09.2018
10:39:35
на центосе сборка 18.12.14 от альтинити - в клиенте стрелки на клавиатуре не работают, печатаются символы:
clickhouse-client
ClickHouse client version 18.12.14.
Connecting to localhost:9000.
Connected to ClickHouse server version 18.12.14 revision 54407.
1clickhouse0004.ad.rambler.tech :) ^[[A^[[B^[[C^[[D
кто что может подсказать?

Michal
17.09.2018
10:40:07

Alexey
17.09.2018
10:41:15

Michal
17.09.2018
10:42:41
the newest version 18.12.14 from Altinity seems has some problem, the auto complete function seems not work on clickhouse-client
Thank you for alert, we will investigate what's happened with the build (every time building clickhouse is a quest) and fix ASAP

Danil
17.09.2018
11:14:09

Ivan
17.09.2018
11:15:42

Kirill
17.09.2018
11:18:59
Кстати, в новых версиях КХ должна быть ручка чтоб он сам старые хосты переставал видеть как живые в ZK и не копил лог репликации и прочего после некого порога, что уже сильно проще для динамического развертывания типа в к8

Michal
17.09.2018
11:28:02

Kirill
17.09.2018
11:30:01

Michal
17.09.2018
11:32:33

ReRo
17.09.2018
11:38:07
Кто-то использует JDBC драйвер? почему может возникать ошибка "ClickHouse response without column names" версия драйвера 0.1.41 версия сервера 18.10.3 (54405)

Kirill
17.09.2018
11:42:22

Michal
17.09.2018
11:48:29

Google

Kirill
17.09.2018
11:54:00
Вернее один большой конфиг, так как его не человек смотрит )

Michal
17.09.2018
11:55:28
Ну сгенерить - полбеды, а как подменять? При том что некоторые изменения могут и рестарта требовать?

Kirill
17.09.2018
11:56:32

Alexander Nairashvili
17.09.2018
12:00:01
18.12.17 - есть changelog? Какая версия click на текущий момент является достаточно стабильной?

Michal
17.09.2018
12:00:43
Ну и кроме того если это не виртуалка, а железный сервер, то варианты типа "а давайте дадим этому демону права писать куда-то в /etc/ " звучат так себе. Наши ОПсы сильно возмущались уже тем что кликхаус пишет свои -processed.xml в /etc/.

Kirill
17.09.2018
12:03:22
Пока КХ нуждается в том чтоб файл конфигурации физически где то лежал на сервере, поэтому так. Вообще у нас в планах сильно больше чем просто возможность обновления конфигурации )

Michael
17.09.2018
12:08:53
Добрый день. Таблица с партиционированием по дню (PARTITION BY date). При создани бэкапа командой FREEZE за год появляется такая ошибка:
user@ip-10-0-0-1:~# clickhouse-client --query="ALTER TABLE test.myTable FREEZE PARTITION '2018';"
Received exception from server (version 1.1.54342):
Code: 33. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Cannot read all data.
Аналогичный запрос для таблицы с партиционированием по умолчанию работает корректно.
Подскажите, как можно решить проблему годового бэкапа? Возможно, как-то задать имени партиции в числовом формате (20180101) вместо строкового ('2018-01-01')

Paul
17.09.2018
12:13:15
коллеги, вопрос - насколько вероятны проблемы, если в одном кластере будут очень старый кликхауз и современный?

Michal
17.09.2018
12:15:57

Paul
17.09.2018
12:16:34
спасибо. Я хотел убедится. При реэкспорте в формате native проблем быть не должно?

Kirill
17.09.2018
12:17:39

Paul
17.09.2018
12:17:51
мне надо из старого в новый вытащить)

Kirill
17.09.2018
12:18:13
Из старого в новый должно работать

Michal
17.09.2018
12:19:10
Обычно прямая миграция на более новую версию возможна. Проблемы могут появляться если одновременно в кластере сильно разные версии живут.

Paul
17.09.2018
12:19:10
супер, спасибо

Denis
17.09.2018
12:42:17
у вас time_ все время разный, назовите по другому
CREATE MATERIALIZED VIEW mtrades
ENGINE = AggregatingMergeTree(EventDate, (isin_, time__), 8192) POPULATE AS
select
toDate(time_) as EventDate,
isin_,
toInt64(intDiv(toUInt32(time_), 60) * 60) AS time__
argMinState(price_, time__) as open_,
argMaxState(price_, time__) as close_,
sumState(abs(amount_)) as amount_,
from trades
GROUP BY EventDate, isin_, time__
select isin_,
argMinMerge(open_) as open_,
argMaxMerge(close_) as close_,
sumMerge(volume_) as volume_,
time__
from mtrades
group by isin_, time__
https://clickhouse.yandex/docs/en/query_language/functions/date_time_functions/#tostartofminute

Андрей
17.09.2018
12:50:34
Подскажите пожалуйста, кто как организовывал обновление данных в КХ? Понятно, что для обновления данных можно использовать CollapsingMergeTree. Но как быть с удалением строк?

Slava
17.09.2018
12:55:19

Google

Slava
17.09.2018
12:57:14

Salim
17.09.2018
13:06:31
С ReplacingMergeTree вы будете получать фантомные записи
не будет возможности принудительно схлопнуть записи, у CollapsingMergeTree можно указать FINAL

Андрей
17.09.2018
13:08:56

Slava
17.09.2018
13:09:48
Записи из источника данных
если у вас данные часто меняются по разным полям, то наверное вам не подойдет это решение, если данные можно перетирать по ключам, то это то, что вам нужно

Admin
ERROR: S client not available

Slava
17.09.2018
13:13:15
по ключу будет происходит схлопывание данных, после схлопывания останется последняя пришедшяя строка по ключу
supplier | amount
1 | 100
1 | 50
если записи пришли в таком порядке, от останется только последняя после схловывания, это сильно упрощенный пример, но тем не менее

Kirill
17.09.2018
13:14:23

Андрей
17.09.2018
13:14:25

Slava
17.09.2018
13:14:26
мы для себя используем в подобном кейсе

Андрей
17.09.2018
13:14:57

Slava
17.09.2018
13:15:22

Андрей
17.09.2018
13:18:01

Kirill
17.09.2018
13:20:31

Slava
17.09.2018
13:21:41

Kirill
17.09.2018
13:23:36

Salim
17.09.2018
13:24:10
OPTIMIZE дорогой процесс

Google

Salim
17.09.2018
13:24:29
и он не выполняется вместе с FINAL
FINAL на лету отдаст уже актуальные данные с учетом поля sign

Kirill
17.09.2018
13:28:12
Там обещают террабайты данных, можно никогда не дождаться SELECT с FINAL

Slava
17.09.2018
13:31:22

Kirill
17.09.2018
13:35:19

Alexey
17.09.2018
13:36:51

Slava
17.09.2018
13:38:22

Kirill
17.09.2018
13:40:30

Michal
17.09.2018
13:45:28

Wolf
17.09.2018
13:51:32
@milovidov_an а на сколько стабильна уже 18 ветка? А то что не день то о каком то баге пишут, хотя не всегда конечно связано это именно с самим кх. Но проблем явно больше чем было раньше, хотя возможно просто больше людей в чате стало.

Vasily
17.09.2018
13:57:26
добрый день, уважаемые
требуется помощь
при загрузке данных через $ clickhouse-client -n < data.sql
загрузка падает с errno: 28
причём места достаточно
и мониторю место при загрузке
но.. стоит подключиться с помощью strace к процессу clickhouse-server, то больше не падает
VERSION_FULL ClickHouse 18.12.14
VERSION_DESCRIBE v18.12.14-testing
VERSION_GITHASH 84cde3429bec15028992497b3ab7e7a0fb53a253
VERSION_REVISION 54407