
آرین
17.05.2018
12:14:50
/stat@combot

Combot
17.05.2018
12:14:57
combot.org/chat/-1001080295593

Diomid
17.05.2018
12:49:03
Подскажите пожалуйста, в каком разделе конфига я могу установить опцию insert_quorum?

Рулон
17.05.2018
12:53:03
Добрый день! Подскажите пожалуйста куда копать: есть 4 сервера и 4 таблица с 4 фазной репликацией. 3 реплики работают корректно, а на 1 реплики вставляю данные таблицу а она не реплицируется. в zookeeper приписано 4 сервера

Google

Рулон
17.05.2018
12:53:45
перезапускал сервер, конфиги заново сохранял
system.zookeeper -- здесь выводится все ок
SELECT * FROM system.replicas -- все реплики активны

Александр
17.05.2018
13:03:01
Кажется нашел интересный баг с prewhere и final. Есть таблица, в ней три строки для одного PK. https://img.facedsid.ru/c8myz.jpg
Запрос
SELECT
learnerId,
version,
sessions.durationTotal
FROM learners
FINAL
ARRAY JOIN sessions
PREWHERE length(sessions.durationTotal) > 0
Должен по идее вернуть 0, а вернул 26
Т.е. prewhere срабатывает еще до мерджа final?
Т.е. по логике должно быть так:
1. Сработал final и выкинул дубликаты
2. Сработал prewhere по колонке
3. Все остальное
А получается судя по результату так:
1. Сработал prewhere по колонке
2. Сработал final, но мерджить нечего. Если добавить строку с поздним version, то final срабатывает
3. Все остальное
@milovidov_an @ztlpn это ожидаемое поведение или завести issue?

Pavel
17.05.2018
13:10:52
мне кажется завести issue стоит в любом случае

Nikolai
17.05.2018
13:16:47

Александр
17.05.2018
13:17:25
Вообще если делать prewhere и where, с final в обоих случаях, то скорость меняется. Могу предположить, что не запрещено.
Больше интересует вопрос: это ожидаемое поведение или завести issue?
Просто если ожидаемое, то в issue нет смысла. Если только для history и сразу туда написать ответ, что все ок.

Nikolai
17.05.2018
13:22:59
да, я тоже не вижу, чтобы это запрещалось. я не знаю, ожидаемо ли это. но во всяком случае кажется неправильным факт расхождения результатов при переносе в prewhere.

Александр
17.05.2018
13:23:42
Ок. Тогда заведу issue с описанием, а там уже решайте как быть :)

Google

Рулон
17.05.2018
13:33:31
Как удалить КХ?

Diomid
17.05.2018
13:33:38

Alexey
17.05.2018
13:33:41

Yuran
17.05.2018
13:34:32

Alexey
17.05.2018
13:35:14

Александр
17.05.2018
13:46:08
И еще, если в одном блоке данных присутствуют данные для одного PK, но с разными версиями, то final их почему то не мерджит...сейчас писал issue и если в одном insert ... values (), () есть две версии одного PK, то final короче выдает оба

Alexey
17.05.2018
13:48:59
https://github.com/yandex/ClickHouse/blob/master/CHANGELOG_RU.md#%D0%A3%D0%BB%D1%83%D1%87%D1%88%D0%B5%D0%BD%D0%B8%D1%8F-1

Александр
17.05.2018
13:49:20
У нас как раз 1.1.54343
Написал issue с steps to reproduce
https://github.com/yandex/ClickHouse/issues/2386

Alexey
17.05.2018
14:16:12

Александр
17.05.2018
14:18:01

Konstantin
17.05.2018
14:26:35
Коллеги, кто что может сказать про метрики который КХ в графит отсылвает, на что обратить внимание первым делом? Может кто то уже разбирался с этой темой. Как извесно доки нет..

Рулон
17.05.2018
14:32:42
Code: 1000. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::Exception: Access to file denied: /var/lib/clickhouse/metadata/default/test3.sql.
Кто нибудь сталкивался?

Wolf
17.05.2018
14:33:33
Ну права посмотреть как минимум надо

Рулон
17.05.2018
14:41:27
т.е. из 4 нод, 1 не работает, хотя настройки полностью идентичны
нашел варнинг Found parts with the same min block and with the same max block as the missing part 201805_0_14_4. Hoping that it will eventually a$ . И различаются значения queue_size: 11
inserts_in_queue: 7

Google

nikoinlove
17.05.2018
15:13:21
подскажите, а если я получил от базы в ответ на инсерт
Received exception from server (version 1.1.54343):
Code: 252. DB::Exception: Received from localhost:9000, ::1. DB::Exception: Too many parts (301). Merges are processing significantly slower than inserts..
то у меня запрос выполнился или сломался?

prll
17.05.2018
15:38:04
Не выполнился.

Yuran
17.05.2018
16:32:47
А можете пояснить, что значит следующее:
Запросы вида ALTER TABLE ... DROP/DETACH PARTITION выполняются впереди очереди репликации.
У нас есть проблема, что репликация ломается, если дропается партиция, в которую параллельно пишут (да, так делать в любом случае не стоит, но всё же). Означает ли это изменение, что теперь всё будет хорошо?

Wolf
17.05.2018
16:36:16
Нет
Какой смысл дропать партицию за сегодняшний день?


Евгений
17.05.2018
16:41:49
Всем привет. Подскажите в чем проблема. При создании таблицы репликации на кластер запрос висит и отваливается с ошибкой
DB::Exception: Watching task /clickhouse/task_queue/ddl/query-0000000003 is executing longer than distributed_ddl_task_timeout (=180) seconds. There are 1 unfinished hosts (0 of them are currently active), they are going to execute the query in background, e.what() = DB::Exception
В логах Zookeeper
2018-05-17 16:33:39,444 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaeff zxid:0x3a txntype:-1 reqpath:n/a Error Path:/clickhouse Error:KeeperErrorCode = NodeExists for /clickhouse
2018-05-17 16:33:39,447 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf00 zxid:0x3b txntype:-1 reqpath:n/a Error Path:/clickhouse/task_queue Error:KeeperErrorCode = NodeExists for /clickhouse/task_queue
2018-05-17 16:33:39,448 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf01 zxid:0x3c txntype:-1 reqpath:n/a Error Path:/clickhouse/task_queue/ddl Error:KeeperErrorCode = NodeExists for /clickhouse/task_queue/ddl
2018-05-17 16:33:39,469 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf11 zxid:0x40 txntype:-1 reqpath:n/a Error Path:/clickhouse Error:KeeperErrorCode = NodeExists for /clickhouse
2018-05-17 16:33:39,471 [myid:] - INFO [ProcessThread(sid:0 cport:2181)::PrepRequestProcessor@653] - Got user-level KeeperException when processing sessionid:0x1000419d3d80002 type:create cxid:0x5afdaf12 zxid:0x41 txntype:-1 reqpath:n/a Error Path:/clickhouse/tables Error:KeeperErrorCode = NodeExists for /clickhouse/tables


Alexey
17.05.2018
16:44:23
https://www.urbandictionary.com/define.php?term=Click%20House

Yuran
17.05.2018
16:47:07

Mike
17.05.2018
16:52:22

?
17.05.2018
17:12:20
?
а насколько секьюрно то, что кликхаус сообщает в деталях об отсутствии пользователя?
Unknown user user1 и Wrong password for user user1 – по идее надо объединить во что-то типа bad user or password. хотя конечно отлаживать так удобнее )

Max
17.05.2018
20:39:14
Коллеги, приветсвую. Подскажите, а как бытсрее всего загрузить плоскую табличку в сотни ГБ с миллиардами строк из postgres в КХ?
Движок CollapsingMergeTree
сеть чето совсем не утилизируется
если копировать через пайп psql 'COPY' | clickhouse-client '...'

Denis
17.05.2018
21:52:58

Slach
18.05.2018
02:32:22

Konstantin
18.05.2018
05:12:50

Kirill
18.05.2018
05:23:25

Google

Konstantin
18.05.2018
05:26:44

Жека
18.05.2018
06:50:09
Я могу как-то сделать двойную агрегацию без подзапроса?
Мне нужно сначала просуммировать и сразу каунт посчитать

Sergei
18.05.2018
06:52:46

Жека
18.05.2018
06:53:43
Мне нужно вот так count(sum(f1))
такое возможно,без подзапроса?

Ivan
18.05.2018
06:57:44
а что нужно то, количество различных сумм? или количество группировок? А то ваш вопрос выглядит примерно так: "можно ли получить 2 поля в одном запросе, а то не хочется 2 запроса выполнять"

Kirill
18.05.2018
07:00:09

Maxim
18.05.2018
07:03:11
Какие питоновские библиотеки лучше использовать для работы с кликхаузом?

Egor
18.05.2018
07:03:56

Ivan
18.05.2018
07:09:24

Kirill
18.05.2018
07:29:01

Рулон
18.05.2018
08:06:44
Привет! 127.0.0.1. ZooKeeperImpl::Exception. ZooKeeperImpl::Exception: No node, path: /clickhouse.
проблема появилась после перезагрузки зукипера

Wolf
18.05.2018
08:07:59
А зачем вы его перезагружали , ощущение что вы просто очистили все данные в нем
Собственно говоря это и должно было привести к такой ошибке

Рулон
18.05.2018
08:10:13

Wolf
18.05.2018
08:11:21
Вы случайно удалили все данные из зукипер?

Рулон
18.05.2018
08:12:07
мы ничего не удаляли, был ребут сервера

Mike
18.05.2018
08:12:33
зукипер одной нодой представлен?

Рулон
18.05.2018
08:12:56

Google

Mike
18.05.2018
08:13:24
да
сами в ногу себе стрельнули :( боюсь тут не восстановить ничего

Рулон
18.05.2018
08:13:58
Using config: /home/omaharoot/zookeeper-3.4.12/bin/../conf/zoo.cfg
Mode: standalone

Mike
18.05.2018
08:14:10
нужно минимум 3, желательно нечетное количество нод

Ilya
18.05.2018
08:14:28

Kirill
18.05.2018
08:14:39

Рулон
18.05.2018
08:14:48
Спасибо
Таблицы в КХ тоже пересоздать?

Kirill
18.05.2018
08:16:29
Данные потом ATTACH'ем закинуть можно

Рулон
18.05.2018
08:17:21

Mike
18.05.2018
08:17:30
в конфе зукипера dataLogDir - вот там что-то есть на дисках?
у нас 5 северов в зукипере, перезагружаем по очереди, проблем не было с потерей данных

Рулон
18.05.2018
08:18:25
Can't drop readonly replicated table (need to drop data in ZooKeeper as well). version-2 zookeeper_server.pid

Sergei
18.05.2018
08:43:20

Maxim
18.05.2018
08:45:12
Спасибо, будем тогда тоже сами на aiohttp писать